§16.2 Самосопряженные преобразования

Определение 1. Линейное преобразование $A$ в вещественном евклидовом пространстве $R$ называется самосопряженным, если для любых векторов $x$ и $y$
$$ (Ax, y) = (x, Ay). \qquad \qquad (4) $$

Пусть $e_1, e_2, ..., e_n$ - ортогональный нормированный базис в $R$ и
$$ x = \xi_1 e_1 + \xi_2 e_2 + ... + \xi_n e_n, y = \eta_1 e_1 + \eta_2 e_2 + ... + \eta_n e_n. $$
Пусть, далее, $ \zeta_i$ - координаты вектора $ z=Ax, $ т. е.
$$ \zeta_i = \sum_{k=1}^n \alpha_{ik} \xi_k, $$
где $||\alpha_{ik}||$ - матрица преобразования $A$ в базисе $e_1, e_2, ..., e_n.$ Следовательно,
$$ (Ax, y) = (z, y) = \sum_{i=1}^n \zeta_i \eta_i = \sum_{i, k=1}^n a_{ik} \xi_k \eta_i. $$
Аналогично,
$$ (x, Ay) = \sum_{i, k=1}^n a_{ik} \xi_i \eta_k. \qquad \qquad (5) $$
Таким образом, условие (4) означает, что
$$ a_{ik} = a_{ki} $$

Итак, для того чтобы преобращование было самосопряженным, необходимо и достаточно, чтобы в ортогональном нормированном базисе его матрица была симметрична.

Всякая симметричная билинейная форма $A(x; y) $ в произвольном базисе имеет вид
$$ A(x, y) = \sum_{i, k=1}^n a_{ik} \xi_i \eta_k, \qquad \qquad (6)$$
где $a_{ik} = a_{ki}.$ Сравнивая (5) и (6), получаем следующий результат, который мы используем для доказательства теоремы 3 этого параграфа:
Для всякой симметричной билинейной формы $A(x; y) $ существует такое самосопряженное преобразование $A,$ что
$$ A(x; y) = (Ax, y).$$

Покажем, что для каждого самосопряженного преобразования существует Ортогональный базис, в котором матрица этого преобразования диагональна.

Доказательство будет основано на содержании п. 1. Другое доказательство, не зависящее от этого(и, следовательно, от теоремы существования корня алгебраического уравнения), см в параграфе 17.

Предварительно докажем следующие леммы.
Лемма 1. У всякого самосопряженного преобразования существует одномерное инвариантное подпространство.
Доказательство.
Согласно теореме 1 этого параграфа каждому корню $\lambda$ характерестического уравнения отвечает одномерное инвариантное подпространство, если $\lambda$ вещественно, и двумерное - если $\lambda$ комплексно. Поэтому, для доказательства леммы достаточно показать, что все $\lambda$ вещественны.

Предположим, что $\lambda$ комплексно. При доказательстве теоремы 1 мы для такого $ \lambda = \alpha + i \beta $ построили два таких вектора $x$ и $y$, что
$$ Ax = \alpha x - \beta y, \\
Ay = \beta x + \alpha y. $$
Но тогда
$$ (Ax, y) = \alpha (x, y) - \beta (y, y), \\
(x, Ay) = \beta (x, x) + \alpha (x, y).$$

Так как $(Ax, y) = (x, Ay),$ то, вычитая из второго равенства первое, имеем:
$$ 0 = \beta [(x, x) + (y, y)] $$
и так как $(x, x) + (y, y) ≠ 0,$ то $\beta ≠ 0,$ т. . $\lambda$ вещественно.

Лемма 2. Пусть $A$-самосопряженное преобразование, а $e$-его собственный вектор. Тогда совокупность $R'$ векторов, ортогональных $e$, образует $(n-1)$ - мерное инвариантное подпространство.

Доказательство. Ясно, что совокупность $R'$ векторов $x \in R,$ ортогональных вектору $e, $ есть $(n-1)$ - мерное подпространство. Покажем, что $R'$ инвариантно относительно преобразования $a.$

Пусть $x \in R',$ т. е. $(x, e) =0$ Тогда
$$ (Ax, e) = (x, Ae) = (x, \lambda e) = \lambda(x, e) = 0,$$
т. е. и $Ax \in R'$.

Теорема 2. Существует ортогональный нормированный базис, в котором матрица самосопряженного преобразования $A$ диагональна.

Доказательство. Согласно лемме 1 преобразование $A$ имеет хотя бы один собственный вектор $e_1$.

Обозначим через $R'$ подпространство, состоящее из векторов, ортогональных $e_1$. Так как $R'$ инвариантно, то в нем, согласно той же лемме 1, также существует собственный вектор; обозначим его $e_2$. Продолжая это построение, мы получим $n$ собственных векторов, из которых каждый следующий по построению ортогонален к предыдущим, т. е. получим $n$ попарно ортогональных собственных векторов $ e_1, e_2, ..., e_n.$

Выберем их за базис в $R.$ Так как
$$ Ae_i = \lambda_i e_i \qquad (i = 1, 2, ..., n),$$
то матрица преобразования $A$ в этом базисе имеет вид
$$\begin{pmatrix}
\lambda_1 $ 0 ... 0 \\
0 & \lambda_2 ... 0 \\
\cdots & \cdots & \cdots \\
0 & 0 ... \lambda_n
\end{pmatrix}, $$
т. е. является диагональной матрицей.