5. Основы тензорного анализа

Тензорные поля 5.12. Обобщение понятия вектора Расширенное определение тензора


Рассмотрим $ n$-мерное пространство, отказываясь от некоторых предположений, существенных для векторов, как направленных отрезков в 3-х мерном пространстве. Будем считать, что дано множество объектов, обозначаемых как $ {\mathbf a}, {\mathbf b}, {\mathbf c},\dots,$ на котором определены две операции: сложение - $ {\mathbf a}+{\mathbf b}={\mathbf c}$ и умножение на число (в общем случае комплексное) - $ c\cdot{\mathbf a}={\mathbf b}$, удовлетворяющие 8 аксиомам линейного пространства. $ n$-мерность означает, что на этом множестве существуют $ n$ линейно независимых векторов $ {\mathbf e}_1,{\mathbf e}_2,\dots,{\mathbf e}_n$, которые образуют базис, а любые $ n+1$ векторов будут линейно зависимы. В этом случае любой вектор $ {\mathbf a}$может быть однозначно представлен в виде линейной комбинации базисных векторов
$\displaystyle {\mathbf a} = a^1{\mathbf e}_1 + a^2{\mathbf e}_2+ \dots + a^n{\mathbf e}_n.$ (282)
Индексы, нумерующие базисные векторы, т. е. $ a_i, i=1,\dots,n$ будем писать сверху и называть контравариантными, в отличие от ковариантных индексов, которые принято писать снизу. Как уже отмечалось ранее, многократные суммы в тензорной алгебре принято записывать в сокращенной форме, используя правило Эйнштейна. Так как в выражении типа (282) используется два типа индексов, то упрощенное правило Эйнштейна должно быть расширено и теперь будем считать суммируемыми такие пары индексов, в которых один - верхний, а второй - обязательно нижний (или наоборот). Тогда (282)можно переписать в форме
$\displaystyle {\mathbf a}=\sum_{i=1}^{n} a^i {\mathbf e}_i \equiv = a^i {\mathbf e}_i.$ (283)
Набор коэффициентов $ a^i$ однозначно определяет любой вектор $ {\mathbf a}$ в выбранном базисе и называется контравариантными координатами вектора $ {\mathbf a}$ в базисе $ {\mathbf e}_i$. Множество наборов контравариантных координат само по себе образует линейное $ n$-мерное пространство, поскольку для таких составных объектов определены операции сложения и умножения, отвечающие 8 аксиомам, и это пространство является изоморфным исходному. Таким образом, координаты $ a^i$ сами являются контравариантными векторами, в отличие от ковариантного $ {\mathbf a}$. Заметим, что линейные пространства ко- и контравариантных векторов - это разные пространства с элементами разной природы.
Рассмотрим в исходном пространстве другой набор базисных векторов $ {\mathbf e}'_i, i=1,\dots,n$. Так как каждый из $ {\mathbf e}'_i$ является $ n+1$ вектором в отношении набора $ {\mathbf e}_i$, то в силу линейной зависимости набора $ ({\mathbf e}_1,{\mathbf e}_2,\dots,{\mathbf e}_n,{\mathbf e}'_i)$ всегда можно выразить $ {\mathbf e}'_i$ в виде линейной комбинации $ {\mathbf e}_i$:
$\displaystyle {\mathbf e}'_i = A_i{}^k {\mathbf e}_k$ (284)
или в матричной форме
$\displaystyle \left( \begin{array}{c} {\mathbf e}'_1 \\ {\mathbf e}'_2 \\ \dots...
...athbf e}_1 \\ {\mathbf e}_2 \\ \dots \\ {\mathbf e}_n \\ \end{array} \right)\ .$ (285)
Матрица $ {\mathbf A}$ связывает два базисных набора и аналогична матрице ортогональных преобразований, но теперь, согласно договоренности о правиле суммирования (283), матричные элементы необходимо нумеровать ко- и контравариантными индексами. Например, единичная матрица будет иметь элементы:
$\displaystyle \delta_i{}^j = \left\{\begin{array}{l} 1,\qquad i=j \\ [1em] 0,\qquad i\ne j, \\ \end{array} \right.$ (286)
что определяет $ \delta $-символ Кронекера. Так как новые векторы (284) линейно независимы, то строки матрицы (285) также линейно независимы и определитель матрицы (285) должен быть отличным от нуля:
$\displaystyle \det{\mathbf A} \ne 0,$ (287)
что эквивалентно условию существования для матрицы $ {\mathbf A}$ обратной матрицы $ {\mathbf A}^{-1}$
$\displaystyle {\mathbf A}\cdot{\mathbf A}^{-1} = {\mathbf E}$   или$\displaystyle \quad A_{i'}{}^i(A^{-1})_i^{j'} = ({\mathbf A}\cdot{\mathbf A^{-1}})_{i'}{}^{j'} = \delta_{i'}{}^{j'}$ (288)
(288) является единственным условием, которое накладывается на преобразование векторов. В остальном коэффициенты $ A_i{}^j$ произвольны.
Если, наоборот, выразить векторы $ {\mathbf e}_i$ через $ {\mathbf e}'_i$как
$\displaystyle {\mathbf e}_i = B_i{}^{i'} {\mathbf e}'_{i'},$ (289)
то, используя (284), получим для матрицы $ {\mathbf B}$:
$\displaystyle {\mathbf e}_i = B_i{}^{i'}{\mathbf e}'_{i'} = B_i{}^{i'} A_{i'}{}^{j}{\mathbf e}_j = {\mathbf e}_i = \delta_{i}{}^{j}{\mathbf e}_j$ (290)
т. е.
$\displaystyle B_i{}^{i'} A_{i'}{}^{j} = \delta_{i}{}^{j}\qquad\Longrightarrow\qquad
{\mathbf B} = {\mathbf A^{-1}}.
$
При переходе к новому базису $ {\mathbf e}'_i$ контравариантные координаты вектора $ {\mathbf a}$ изменяются:
$\displaystyle {\mathbf a}=a^i{\mathbf e}_i = a'^{i'}{\mathbf e}'_{i'}$ (291)
и, используя связь между двумя базисами (284),
$\displaystyle {\mathbf a}=a^i{\mathbf e}_i = a^i(A^{-1})_i{}^{i'}{\mathbf e}'_{i'}$ (292)
откуда
$\displaystyle a'^{i'} = (A^{-1})_i{}^{i'} a^i.$ (293)
Для того, чтобы записать выражение (293) в матричном виде, необходимо учесть, что при использовании "ступенчатой" индексации верхний правый индекс в выражении $ A_i{}^j$ по смыслу правила матричного умножения должен рассматриваться как номер столбца и тогда аналог формулы (285), но для преобразования координат вектора $ {\mathbf a}$, принимает вид:
$\displaystyle \left( \begin{array}{c} a'^1 \\ a'^2 \\ \dots \\ a'^n \\ \end{arr...
...t) \left( \begin{array}{c} a^1 \\ a^2 \\ \dots \\ a^n \\ \end{array} \right)\ .$ (294)
Аналогично можно получить и обратное преобразование контравариантных координат
$\displaystyle a^i = A_{i'}{}^i a'^{i'}\ .$ (295)
Весьма важно сравнить формулы преобразования базисных ковариантных векторов (284) и (294)
\begin{displaymath}\begin{array}{l} {\mathbf e}'_i = A_i{}^k {\mathbf e}_k \\ a'^i = (a^{-1})_{k}{}^i a^k. \\ \end{array}\end{displaymath} (296)

Видно, что матрицы этих преобразований различны, а именно матрица преобразования координат является транспонированной обратной по отношению к матрице преобразования самих векторов - такие преобразования называются также контрагредиентными преобразованиями. Отсюда и происходит название контравариантные координаты, т. е. противопреобразующиеся по сравнению с преобразованиями базисных векторов. Отметим, что ортонормированные базисные векторы как направленные отрезки, рассматриваемые в Главе 1, преобразуются с помощью ортогональной матрицы, для которой $ {\mathbf A}^{T}={\mathbf A}^{-1}$ и соответственно $ ({\mathbf A}^{-1})^T = {\mathbf A}$, т. е. контрагредиентное преобразование совпадает с исходным. В этом случае нет различий в способах преобразования базисных векторов и координат произвольных векторов и необходимости различать типы величин с помощью разных типов индексов, т. е. ко- и контравариантных, не возникало.

Векторный анализ в криволинейных координатах Литература
Тензорные поля   Содержание   Расширенное определение тензора