§18.1 Нормальная форма линейного преобразования

В прошлой главе мы познакомились с различными классами линейных преобразований n-мерного пространства, имеющих $n$ линейно независимых собственных векторов. Мы знаем, что в базисе, состоящем из собственных векторов такого преобразования, его матрица имеет особенно простой вид, так называемую диагональную форму.

Однако число линейно независимых собственных векторов у линейного преобразования может быть меньше, чем $n$*). Пример линейного преобразования с недостаточным числом собственных векторов мы приведем позже. Такое преобразование заведомо не может быть приведено к диагональной форме, так как базис, в котором матрица преобразования диагональна, состоит из собственных векторов. Возникает вопрос: каков простейший вид матрицы такого линейного преобразования?

В этой главе мы для произвольного преобразования укажем базис, в котором его матрица имеет сравнительно простой вид (так называемая жорданова нормальная форма). В случае, когда число линейно независимых собственных векторов преобразования равно размерности пространства, эта нормальная форма совпадает с диагональной. Мы сформулируем сейчас окончательный результат, который докажем в параграфе 19.

Пусть задано произвольное линейное преобразование $A$ в комплексном пространстве $n$ измерений. Предположим, что у $A$ имеется $k (k \leqslant n)$ линейно независимых собственных векторов

$$ e_1, f_1, ..., h_1, $$
соответствующих собственным значением $\lambda_1, \lambda_2, ..., \lambda_k.$ Тогда существует базис, состоящий из $k$ групп векторов *):
$$ e_1, ..., e_p; f_1, ..., f_q; ...; h_1, .... h_s, \qquad (1)$$
в котором преобразование $A$ имеет следующий вид:
$$ Ae_1 = \lambda_1 e_1, Ae_2 = e_1 + \lambda_1 e_2, ..., Ae_p = e_{p-1} + \lambda_1 e_p; \\
Af_1 = \lambda_2 f_1, Af_2 = f_1 + \lambda_2 f_2, ..., Af_q = f_{q-1} + \lambda_2 f_q; \qquad (2) \\
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . \\
Ah_1 = \lambda_k h_1, Ah_2 = h_1 + \lambda_k h_2, ..., Ah_s = h_{s-1} + \lambda_k h_s. $$
Мы видим, что базисные векторы каждой группы переходят при нашем преобразовании в линейную комбинацию векторов той же группы. Отсюда следует, что каждая группа базисных векторов порождает подпространство, инвариантное относительно преобразования $A.$ Рассмотрим несколько подробнее преобразование, задаваемое формулами (2).

В подпространстве, порожденном каждой группой, есть собственный вектор; например, в подпространстве, порожденном векторами $e_1, e_2, ..., e_p, $ таким собственным вектором является ,$ e_1.$

Вектор $e_2$ называют иногда присоединенным собственным вектором первого ряда. Это значит, что $ Ae_2$ пропорционально $e_2$ с точностью до собственного вектора, как это видно из равенства
$$ Ae_2 = \lambda_1 e_2 + e_1.$$

Аналогично $e_3, e_4, ...$ называют присоединенным векторами второго, третьего и т. д. порядков.

Каждый из них является "как бы собственным", т. е. собственным с точностью до присоединенного низшего порядка
$$ Ae_k = \lambda_1 e_k + e_{k-1}. $$

Таким образом, базис каждого инвариантного подпространства состоит из одного собственного вектора и такого количества присоединенных, которое нужно добавить, чтобы получить базис данного подпространства.

Покажем, что в каждом из этих подпространств имеется, с точностью до множителя, лишь один собственный вектор.

Действительно, рассмотрим, например, подпространство, порожденное векторами $e_1, e_2, ..., e_p.$ Допустим, что некоторый вектор из этого подпространства, т. е. некоторая линейная комбинация вида
$$ c_1 e_1 + c_2 e_2 + ... + c_p e_p, $$
где не все $c_k$ равны нулю, являются собственным вектором, т. е.
$$ A(c_1 e_1 + c_2 e_2 + ... + c_p e_p ) = \lambda (c_1 e_1 + c_2 e_2 + ... + c_p e_p).$$
Подставляя вместо левой части ее выражение по формулам (2), получаем равенство
$$ c_1 \lambda_1 e_1 + + c_2 (e_1 + \lambda_1 e_2) + ... + c_p (e_{p-1} + \lambda_1 e_p) = \\
= \lambda c_1 e_1 + \lambda c_2 e_2 + ... + \lambda c_p e_p. $$
Отсюда приравнивая коэффициенты при каждом из базисных векторов, имеем систему уравнений для нахождения величин $ \lambda, c_1, c_2, ..., c_p: $
$$ c_1 \lambda_1 + c_2 = \lambda c_1, \\
c_2 \lambda_1 + c_3 = \lambda c_2, \\
. . . . . . . . . . . . . . .. . . . \\
c_{p-1} \lambda_1 + e_p = \lambda c_{p-1}, \\
c_p \lambda1 = \lambda c_p. $$

Покажем прежде всего, что $\lambda = \lambda_1$. Действительно, если бы $\lambda ≠ \lambda_1, $ то из последнего равенства мы имели бы $ c_p = 0$ и затем из остальных равенств $ c_{p-1} = c_{p-2} = c_2 = c_1 = 0.$ Итак, $\lambda = \lambda_1;$ тогда из первого уравнения имеем $c_2 = 0,$ из второго $c_3 = 0$ и т. д. до $ c_p = 0.$ Значит, собственный вектор равен $c_1 e_1$ и, следовательно, с точностью до множителя совпадает с первым вектором соответствующей группы.

Выпишем матрицу преобразования (2). Так как векторы каждой группы преобразуются в линейные комбинации векторов той же группы, то в первых $p$ столбцах матрицы преобразования могут быть отличны от нуля лишь элементы первых $p$ строк, в следующих $q$ столбцах могут быть отличны от нуля лишь элементы, стоящие в строчках с теми же номерами, что и у этих столбцов, и т. д. Таким образом, в данном базисе матрица преобразования будет состоять из $k$ клеток, расположенных по главной диагонали, а все элементы, не принадлежащие ни одной из этих клеток, будут равны нулю.

Для того чтобы понять, что стоит в каждой клетке матрицы преобразования $A,$ достаточно ещё раз написать, как преобразуются векторы одной группы. Мы имеем:
$$ Ae_1 = \lambda_1 e_1, \\
Ae_2 = e_1 + \lambda_1 e_2, \\
. . . . . . . . . . . . . . . . . . . . . . . . . . . . \\
Ae_{p-1} = e_{p-2} + \lambda_1 e_{p-1}, \\
Ae_p = e_{p-1} + \lambda_1 e_p. $$
Вспоминая, как строится матрица, отвечающая данному преобразованию базиса, получаем, что клетка матрицы, соответствующая данной группе векторов, имеет вид
$$ A_1 = \begin{pmatrix}
\lambda_1 & 1 & 0 ... 0 & 0 \\
0 & \lambda_1 & 1 ... 0 & 0 \\
\cdots & \cdots & \cdots & \cdots \\
0 & 0 & 0 ... \lambda_1 & 1 \\
0 & 0 0 ... 0 & \lambda_1
\end{pmatrix} \qquad \qquad (3)$$

Вся же матрица оказывается составленной из таких клеток порядков $p, q, ..., s$ соответственное, т. е. имеет вид
$$ \begin{pmatrix}
\lambda_1 & 1 & 0 ... 0 \\
0 & \lambda_1 & 1 ... 0 \\
\cdots & \cdots & \cdots \\
0 & 0 & 0 .... \lambda_1 \\
\qquad \qquad \qquad \lambda_2 & 1 & 0 ... 0 \
\qquad \qquad \qquad 0 & \lambda_2 & 1 ... 0 \\
\qquad \qquad \qquad \cdots \cdots \\
\qquad \qquad \qquad 0 & 0 & 0 ... \lambda_2 \\
\qquad \qquad \qquad . . . . . . . . . . \\
\qquad \qquad \qquad \qquad \qquad \lambda_k & 1 & 0 ... 0 \\
\qquad \qquad \qquad \qquad \qquad 0 & \lambda_k & 1 ... 0 \\
\qquad \qquad \qquad \qquad \qquad \cdots \cdots
\qquad \qquad \qquad \qquad \qquad 0 & 0 & 0 ... \lambda_k
\end{pmatrix}, \qquad (4)$$
где все элементы вне клеток - нули.
Заметим также, что не все $ \lambda_i$ обязаны быть различными.

Упражнение. Найти все инвариантные подпространства преобразования с матрицей (3).

Хотя приведенная здесь нормальная форма выглядит сложнее, чем, например, диагональная матрица, однако и с ней можно достаточно просто производить алгебраические операции. Мы покажем, например, как вычислить многочлен от матрицы (4). Матрица (4) имеет вид
$$ A= \begin{pmatrix}
A_1 \\
A_2 \\
. \\
. \\
. \\
A_k
\end{pmatrix}, $$
где $A_i$- отдельные клетки, а все невыписанные элементы - нули. Тогда
$$ A^2 = \begin{pmatrix}
A_1^2 \\
A_2^2 \\
. \\
. \\
. \\
A_k^2
\end{pmatrix}, ..., A^m = \begin{pmatrix}
A_1^m \\
A_2^m \\
. \\
. \\
. \\
A_k^m
\end{pmatrix}, $$
т. е. для того, чтобы возвести в некоторую степень матрицу $A$, достаточно уметь возвести в эту степень каждую из клеток. Пусть теперь $P(t) = a_0 + a_1 t + ... + a_m t^m$ - произвольный многочлен. Тогда легко видеть, что
$$ P(A) = \begin{pmatrix}
P(A_1) \\
P(A_2) \\
. \\
. \\
. \\
P(A_k)
\end{pmatrix}. $$

Покажем теперь, как вычислить $P(A_1),$ т. е. многочлен от одной клетки нормальной формы матрицы (3). Для этого запишем матрицу (3) в виде
$$ A_1 = \lambda_1 E + I, $$
где $E$ - единичная матрица порядка $p$, а матрица $I$ имеет вид
$$ I = \begin{pmatrix}
0 & 1 & 0 ... 0 & 0 \\
0 & 0 & 1 ... 0 & 0 \\
\cdots & \cdots & \cdots \\
0 & 0 & 0 ... 0 & 1 \\
0 & 0 & 0 ... 0 & 0
\end{pmatrix}. $$

Заметим, что матрицы $I^2, I^3, ..., I^{p-1}$ имеют следующий вид "):
$$ I^2 = \begin{pmatrix}
0 & 0 & 1 .... 0 \\
0 & 0 & 0 & 1 ... 0 \\
\cdots & \cdots & \cdots \\
0 & 0 & 0 .... 0 \\
0 & 0 & 0 .... 0
\end{pmatrix}, ..., I^{p-1} = \begin{pmatrix}
0 & 0 & 0 ... 0 & 1 \\
0 & 0 & 0 ... 0 & 0 \\
\cdots & \cdots & \cdots \\
0 & 0 & 0 ... 0 & 0 \\
0 & 0 & 0 ... 0 & 0
\end{pmatrix}, $$
а
$$ I^p = I^{p+1} = ... = 0.$$

Теперь нетрудно вычислить произвольный многочлен от матрицы (3). Действительно, многочлен $P(t)$ можно по формуле Тейлора представить в виде
$$ P(t) = P(\lambda_1) + (t- \lambda_1) P' (\lambda_1) + {{(t - \lambda_1)}^2 \over {2!}} P'' (\lambda_1) + ... \\
... + {{(t - \lambda_1)}^n \over {n!}} P^n (\lambda_1), $$
где $n$ - степень многочлена. Подставляя вместо $t$ матрицу $A_1$, имеем:
$$ P(A_1) = P(\lambda_1) E + (A_1 - \lambda_1 E) P' (\lambda_1) + {{(A_1 - \lambda_1 E)}^2 \over {2!}} p^n (\lambda_1) + ... \\
... + {{(A_1 - \lambda_1 E)}^n \over {n!}} p^n (\lambda'_1). $$
Но $ A_1 - \lambda_1 E=I,$ следовательно,
$$ P(A_1) = P(\lambda_1) E + P' (\lambda_1) I + {{P'' (\lambda_1)} \over {2!}} I^2 + ... + {{P^n (\lambda_1)} \over {n!}} I^n. $$
Подставляя вместо $ I, I^2, ..., I^{p-1} $ их выражения и учитывая, что $ I^p = I^{p+1} = ... = 0,$ получаем окончательный вид матрицы $P(A_1):$
$$P(A_1) = \begin{pmatrix}
P(\lambda_1) & {{P' (\lambda_1)} \over {1!}} & {{P"(\lambda_1)} \over {2!}} & \ldots & {{P^{(p-1)} (\lambda_1)} \over {(p-1)!}} \\
0 & P(\lambda_1) & {{P'(\lambda_1)} \over {1!}} & \ldots & {{P^{(p-1)} (\lambda_1)} \over {(p-2)!}} \\
\vdots & \vdots & \vdots & \ddots & \vdots \\
0 & 0 & 0 & \ldots & P(\lambda_1)
\end{pmatrix}$$

Мы видим, таким образом, что, для того чтобы вычислить многочлен одной клетки нормальной формы порядка $p,$ достаточно знать значение этого многочлена и его производных до порядка $p-1$ в точке $\lambda_1$, где $\lambda_1$- собственное значение, отвечающие клетке. Отсюда следует, что если матрица $A$ имеет нормальную
формулу (4) с клетками порядков $p, q, ..., s,$ то для вычисления матрицы $P(A_1)$ достаточно знать значения $P(t) $ в точках $ t = \lambda_1, \lambda_2, ..., \lambda_k$ с производными до порядков $ p-1, q-1, ..., s-1$ соответственно.

Мы докажем следующую теорему.
Теорема. Пусть в комплексном n-мерном пространстве задано линейное преобразование $A.$ Тогда можно найти базис, в котором матрица линейного преобразования имеет нормальную форму. Другими словами, можно найти базис, в котором линейное преобразование имеет вид (2).

Два независимых доказательства сформулированной теоремы будут даны в параграфе 19 и 20. Кроме того, важная теория инвариантных множителей и $\lambda$-матриц даёт нам третье независимое доказательство этого результата.