Лекция.
§1. Свойства линейно зависимых и независимых систем арифметических векторов.
Свойство 1. Если в САВ \( \{\vec{x}_1, \vec{x}_2, \dots, \vec{x}_m, \vec{o}\} \) входит нулевой вектор, то она линейно зависимая.
Д-во. \( 0 \cdot \vec{x}_1 + 0 \cdot \vec{x}_2 + \dots + 0 \cdot \vec{x}_m + 1 \cdot \vec{o} = \vec{o} \) \(\Rightarrow\) (по определению линейной зависимости САВ) \(\Rightarrow\) САВ — линейно зависима. Ч.Т.Д.
Свойство 2. Если в САВ входят пропорциональные векторы, например \( \{\vec{x}_1, \vec{x}_2, \dots, \vec{x}_m, \lambda \vec{x}_1\} \), то она линейно зависима.
Д-во. \( \lambda \vec{x}_1 = \lambda \vec{x}_1 + 0 \cdot \vec{x}_2 + \dots + 0 \cdot \vec{x}_m \), где \( \lambda \ne 0 \). \(\Rightarrow\) (по теореме о линейной зависимости САВ) \(\Rightarrow\) САВ — линейно зависима. Ч.Т.Д.
Свойство 3. Если в САВ \( \{\vec{x}_1, \vec{x}_2, \dots, \vec{x}_m\} \) входит линейно зависимая подсистема АВ, например, \( \{\vec{x}_1, \vec{x}_2, \dots, \vec{x}_k\} \), где \( k < m \), то она линейно зависима.
Д-во. Так как \( \{\vec{x}_1, \vec{x}_2, \dots, \vec{x}_k\} \) — ЛЗСАВ, то \( \alpha_1 \vec{x}_1 + \alpha_2 \vec{x}_2 + \dots + \alpha_k \vec{x}_k = \vec{o} \), где \( \alpha_i = 0 \) (одновременно) \(\Rightarrow\) \( \alpha_1 \vec{x}_1 + \alpha_2 \vec{x}_2 + \dots + \alpha_k \vec{x}_k + 0 \cdot \vec{x}_{k+1} + \dots + 0 \cdot \vec{x}_m = \vec{o} \) \(\Rightarrow\) (по определению линейной зависимости САВ) \(\Rightarrow\) САВ — линейно зависима. Ч.Т.Д.
Свойство 4. Если САВ \( \{\vec{x}_1, \vec{x}_2, \dots, \vec{x}_m\} \) линейно независима, то любая её подсистема также линейно независима, например, \( \{\vec{x}_1, \vec{x}_2, \dots, \vec{x}_k\} \), где \( k < m \).
Д-во (методом от противного). Пусть \( \{\vec{x}_1, \vec{x}_2, \dots, \vec{x}_m\} \) — ЛНСАВ, а её подсистема \( \{\vec{x}_1, \vec{x}_2, \dots, \vec{x}_k\} \), где \( k < m \), линейно зависима. Тогда по свойству 3) исходная САВ \( \{\vec{x}_1, \vec{x}_2, \dots, \vec{x}_m\} \) является линейно зависимой. Пришли к противоречию. Следовательно \( \{\vec{x}_1, \vec{x}_2, \dots, \vec{x}_k\} \), где \( k < m \), линейно независима. Ч.Т.Д.
Свойство 5. Система \( n \)-мерных единичных векторов \( \{\vec{e}_1, \vec{e}_2, \dots, \vec{e}_n\} \) является линейно независимой.
Д-во. Составим векторное равенство \( \alpha_1 \vec{e}_1 + \alpha_2 \vec{e}_2 + \dots + \alpha_n \vec{e}_n = \vec{o} \) \(\Rightarrow\)
\( \Rightarrow \alpha_1 \begin{pmatrix}1\\0\\\vdots\\0\end{pmatrix} + \alpha_2 \begin{pmatrix}0\\1\\\vdots\\0\end{pmatrix} + \dots + \alpha_n \begin{pmatrix}0\\0\\\vdots\\1\end{pmatrix} = \begin{pmatrix}0\\0\\\vdots\\0\end{pmatrix} \) \(\Rightarrow\)
\(
\begin{cases}
\alpha_1 = 0 \\
\alpha_2 = 0 \\
\quad\vdots \\
\alpha_n = 0
\end{cases}
\Rightarrow \alpha_1 = \alpha_2 = \dots = \alpha_n = 0 \) \(\Rightarrow\) \( \{\vec{e}_1, \vec{e}_2, \dots, \vec{e}_n\} \) линейно независима. Ч.Т.Д.
Свойство 6. Если число векторов в САВ \( \{\vec{x}_1, \vec{x}_2, \dots, \vec{x}_m\} \) больше, чем их размерность, то такая САВ является линейной зависимой.
Д-во. Составим векторное равенство \( \lambda_1 \vec{x}_1 + \lambda_2 \vec{x}_2 + \dots + \lambda_m \vec{x}_m = \vec{o} \). \(\Rightarrow\)
\( \Rightarrow \lambda_1 \begin{pmatrix}x_{11}\\x_{21}\\\vdots\\x_{n1}\end{pmatrix} + \lambda_2 \begin{pmatrix}x_{12}\\x_{22}\\\vdots\\x_{n2}\end{pmatrix} + \dots + \lambda_m \begin{pmatrix}x_{1m}\\x_{2m}\\\vdots\\x_{nm}\end{pmatrix} = \begin{pmatrix}0\\0\\\vdots\\0\end{pmatrix} \) \(\Rightarrow\)
\(
\begin{cases}
\alpha_1 x_{11} + \alpha_2 x_{12} + \dots + \alpha_m x_{1m} = 0 \\
\alpha_1 x_{21} + \alpha_2 x_{22} + \dots + \alpha_m x_{2m} = 0 \\
\qquad\vdots \\
\alpha_1 x_{n1} + \alpha_2 x_{n2} + \dots + \alpha_m x_{nm} = 0
\end{cases}
\). Так как полученная СЛАУ является однородной СЛАУ из \( n \) уравнений с \( m \) неизвестными \( \alpha_1, \alpha_2, \dots, \alpha_m \), где \( n < m \), то она всегда имеет бесконечно много ненулевых решений. Таким образом, всегда существуют ненулевые наборы значений \( \alpha_1, \alpha_2, \dots, \alpha_m \), при которых выполняется равенство \( \lambda_1 \vec{x}_1 + \lambda_2 \vec{x}_2 + \dots + \lambda_m \vec{x}_m = \vec{o} \). Следовательно, САВ \( \{\vec{x}_1, \vec{x}_2, \dots, \vec{x}_m\} \) является линейно зависимой. Ч.Т.Д.
Свойство 7. (критерий линейной зависимости САВ, теорема Штейниша) Если каждый из векторов САВ \( \{\vec{x}_1, \vec{x}_2, \dots, \vec{x}_m\} \) является линейной комбинацией векторов САВ \( \{\vec{y}_1, \vec{y}_2, \dots, \vec{y}_k\} \), где \( k < m \), то САВ \( \{\vec{x}_1, \vec{x}_2, \dots, \vec{x}_m\} \) является линейно зависимой.
Д-во. По условию: \( \vec{x}_1 = \alpha_1^1 \vec{y}_1 + \alpha_2^1 \vec{y}_2 + \dots + \alpha_k^1 \vec{y}_k \), …, \( \vec{x}_m = \alpha_1^m \vec{y}_1 + \alpha_2^m \vec{y}_2 + \dots + \alpha_k^m \vec{y}_k \). Составим векторное равенство \( \lambda_1 \vec{x}_1 + \lambda_2 \vec{x}_2 + \dots + \lambda_m \vec{x}_m = \vec{o} \) \(\Rightarrow\)
\( \Rightarrow \lambda_1 (\alpha_1^1 \vec{y}_1 + \alpha_2^1 \vec{y}_2 + \dots + \alpha_k^1 \vec{y}_k) + \lambda_2 (\alpha_1^2 \vec{y}_1 + \alpha_2^2 \vec{y}_2 + \dots + \alpha_k^2 \vec{y}_k) + \dots + \lambda_m (\alpha_1^m \vec{y}_1 + \alpha_2^m \vec{y}_2 + \dots + \alpha_k^m \vec{y}_k) = \vec{o} \) \(\Rightarrow\)
\( \Rightarrow (\lambda_1 \alpha_1^1 + \lambda_2 \alpha_1^2 + \dots + \lambda_m \alpha_1^m) \cdot \vec{y}_1 + (\lambda_1 \alpha_2^1 + \lambda_2 \alpha_2^2 + \dots + \lambda_m \alpha_2^m) \cdot \vec{y}_2 + \dots + (\lambda_1 \alpha_k^1 + \lambda_2 \alpha_k^2 + \dots + \lambda_m \alpha_k^m) \cdot \vec{y}_k = \vec{o} \).
Полученное равенство всегда выполняется при условии
\(
\begin{cases}
\lambda_1 \alpha_1^1 + \lambda_2 \alpha_1^2 + \dots + \lambda_m \alpha_1^m = 0 \\
\lambda_1 \alpha_2^1 + \lambda_2 \alpha_2^2 + \dots + \lambda_m \alpha_2^m = 0 \\
\qquad\vdots \\
\lambda_1 \alpha_k^1 + \lambda_2 \alpha_k^2 + \dots + \lambda_m \alpha_k^m = 0
\end{cases}
\).
Полученная СЛАУ является однородной СЛАУ из \( k \) уравнений с \( m \) неизвестными \( \lambda_1, \lambda_2, \dots, \lambda_m \), где \( k < m \). Такая СЛАУ всегда имеет бесконечно много ненулевых решений. Тогда всегда существуют ненулевые наборы значений \( \lambda_1, \lambda_2, \dots, \lambda_m \), при которых выполняется равенство \( \lambda_1 \vec{x}_1 + \lambda_2 \vec{x}_2 + \dots + \lambda_m \vec{x}_m = \vec{o} \). Следовательно, САВ \( \{\vec{x}_1, \vec{x}_2, \dots, \vec{x}_m\} \) линейно зависима. Ч.Т.Д.
§2. Базис и ранг САВ. Координаты вектора в заданном базисе САВ. Теорема о единственности разложения вектора САВ по её базису.
Определение 2.1. Базисом САВ \( S = \{\vec{x}_1, \vec{x}_2, \dots, \vec{x}_m\} \) называют упорядоченную систему векторов \( B_s = (\vec{b}_1, \vec{b}_2, \dots, \vec{b}_k) \), удовлетворяющую условиям:
1) \( \vec{b}_i \in S,\; i = \overline{1,k} \);
2) система \( B_s \) линейно независима;
3) любой вектор \( \vec{x}_i \in S \) представляется в виде
\( \vec{x}_i = \alpha_1^i \vec{b}_1 + \alpha_2^i \vec{b}_2 + \dots + \alpha_k^i \vec{b}_k. \qquad (2.1) \)
где \( \alpha_1^i, \alpha_2^i, \dots, \alpha_k^i \) некоторые числа.
Коэффициенты \( \alpha_1^i, \alpha_2^i, \dots, \alpha_k^i \) называют координатами вектора \( \vec{x}_i \) в базисе \( B_s \), а формулу (2.1) называют разложением вектора \( \vec{x}_i \) по базису \( B_s \) и пишут: \( \vec{x}_i = (\alpha_1^i, \alpha_2^i, \dots, \alpha_k^i)_{B_s} \).
Замечание. Коэффициенты \( \alpha_1^i, \alpha_2^i, \dots, \alpha_k^i \) можно обозначать и так \( \alpha_{1i}, \alpha_{2i}, \dots, \alpha_{ki} \).
Замечание. Различных базисов у САВ может быть не один. Но все базисы содержат одно и то же число векторов.
Теорема 2.1 (о единственности разложения вектора по базису). Разложение любого вектора \( \vec{x}_i \in S = \{\vec{x}_1, \vec{x}_2, \dots, \vec{x}_m\} \) по базису \( B_s = (\vec{b}_1, \vec{b}_2, \dots, \vec{b}_k) \) является единственным.
Д-во (методом от противного). Пусть \( \vec{x}_i \in S = \{\vec{x}_1, \vec{x}_2, \dots, \vec{x}_m\} \) раскладывается по базису \( B_s = (\vec{b}_1, \vec{b}_2, \dots, \vec{b}_k) \) двумя разными способами:
\( \vec{x}_i = \alpha_1^i \vec{b}_1 + \alpha_2^i \vec{b}_2 + \dots + \alpha_k^i \vec{b}_k. \qquad (2.2) \)
\( \vec{x}_i = \beta_1^i \vec{b}_1 + \beta_2^i \vec{b}_2 + \dots + \beta_k^i \vec{b}_k. \qquad (2.3) \)
Вычтем из (2.2) равенство (2.3). Получим:
\( \vec{o} = (\alpha_1^i - \beta_1^i) \vec{b}_1 + (\alpha_2^i - \beta_2^i) \vec{b}_2 + \dots + (\alpha_k^i - \beta_k^i) \vec{b}_k. \qquad (2.4) \)
Так как \( B_s = (\vec{b}_1, \vec{b}_2, \dots, \vec{b}_k) \) линейно независима, то равенство (2.4) имеет место только при условии \( \alpha_1^i - \beta_1^i = \alpha_2^i - \beta_2^i = \dots = \alpha_k^i - \beta_k^i = 0 \) \(\Rightarrow\) \( \alpha_1^i = \beta_1^i, \alpha_2^i = \beta_2^i, \dots, \alpha_k^i = \beta_k^i \). Пришли к противоречию с исходным предположением. Следовательно, разложение единственно. Ч.Т.Д.
Определение 2.2. Рангом системы векторов \( S = \{\vec{x}_1, \vec{x}_2, \dots, \vec{x}_m\} \) называют число векторов в любом из её базисов \( B_s = (\vec{b}_1, \vec{b}_2, \dots, \vec{b}_k) \) и обозначают \( \mathrm{rang}\,S \) или \( r(S) \).
Вычисление \( \mathrm{rang}\,S \). Вычисляют ранг \( S = \{\vec{x}_1, \vec{x}_2, \dots, \vec{x}_m\} \) через ранг матрицы \( A \), столбцами которой являются компоненты векторов системы \( S = \{\vec{x}_1, \vec{x}_2, \dots, \vec{x}_m\} \) по формуле \( \mathrm{rang}\,S = \mathrm{rang}\,A \). Если \( \mathrm{rang}\,S \) меньше числа векторов в системе, то система векторов линейно зависима, в противном случае — линейно независима.
Всего базисов (отличающихся составом) может быть \( C_m^k = \dfrac{m!}{k!\,(m-k)!} \), где \( m \) — число векторов в системе, \( k \) — ранг системы векторов. Все базисы САВ находят через базисные миноры \( M_k^s \) матрицы \( A \). Базис САВ образуют только векторы, отвечающие столбцам базисного минора. Для нахождения всех базисов САВ (отличающихся составом) следует перебрать все базисные миноры матрицы \( A \).
Пример 2.1. Найти координаты вектора \( \vec{d} = (2,5,0) \) в базисе \( B = (\vec{a}, \vec{b}, \vec{c}) \), где \( \vec{a} = (1,2,-1) \), \( \vec{b} = (3,6,1) \), \( \vec{c} = (3,9,3) \).
Решение:
1) Записываем разложение вектора \( \vec{d} = (2,5,0) \) по базису \( B = (\vec{a}, \vec{b}, \vec{c}) \):
\( \vec{d} = \alpha_1 \vec{a} + \alpha_2 \vec{b} + \alpha_3 \vec{c} \).
2) Подставляем в равенство заданные векторы. Получаем:
\(
\begin{pmatrix}
2 \\ 5 \\ 0
\end{pmatrix}
= \alpha_1 \begin{pmatrix} 1 \\ 2 \\ -1 \end{pmatrix}
+ \alpha_2 \begin{pmatrix} 3 \\ 6 \\ 1 \end{pmatrix}
+ \alpha_3 \begin{pmatrix} 3 \\ 9 \\ 3 \end{pmatrix}
\).
3) Переходим от векторного равенства к СЛАУ:
\(
\begin{cases}
\alpha_1 + 3\alpha_2 + 3\alpha_3 = 2 \\
2\alpha_1 + 6\alpha_2 + 9\alpha_3 = 5 \\
-\alpha_1 + \alpha_2 + 3\alpha_3 = 0
\end{cases}
\)
и решаем её любым известным способом (например, методом Гаусса). Получим \( \alpha_1 = 1, \alpha_2 = 0, \alpha_3 = \dfrac{1}{3} \).
\( B = (\vec{a}, \vec{b}, \vec{c}): \vec{d}_B = 1 \cdot \vec{a} + 0 \cdot \vec{b} + \dfrac{1}{3} \vec{c} = \left(1, 0, \dfrac{1}{3}\right)_B \).
Ответ: \( \vec{d}_B = 1 \cdot \vec{a} + 0 \cdot \vec{b} + \dfrac{1}{3} \vec{c} = \left(1, 0, \dfrac{1}{3}\right)_B \).
Пример 2.2. Найти ранг и все базисы (отличающиеся составом) САВ \( S = \{\vec{x}_1, \vec{x}_2, \vec{x}_3, \vec{x}_4\} \), где \( \vec{x}_1 = (4, -1, 3, -2) \), \( \vec{x}_2 = (8, -2, 6, -4) \), \( \vec{x}_3 = (3, -1, 4, -2) \), \( \vec{x}_4 = (6, -2, 8, -4) \).
Решение:
1) Составляем матрицу \( A = \begin{pmatrix}
4 & 8 & 3 & 6 \\
-1 & -2 & -1 & -2 \\
3 & 6 & 4 & 8 \\
-2 & -4 & -2 & -4
\end{pmatrix} \) и находим её ранг методом Гаусса:
\(
\begin{pmatrix}
4 & 8 & 3 & 6 &|& 21 \\
-1 & -2 & -1 & -2 &|& -6 \\
3 & 6 & 4 & 8 &|& 21 \\
-2 & -4 & -2 & -4 &|& -12
\end{pmatrix}
\Rightarrow
\begin{pmatrix}
\vec{x}_1 & \vec{x}_2 & \vec{x}_3 & \vec{x}_4 \\
1 & 0 & 2 & 0 &|& 3 \\
0 & 1 & 0 & 2 &|& 3
\end{pmatrix}
\Rightarrow
M_2^5 = \begin{vmatrix} 1 & 0 \\ 0 & 1 \end{vmatrix} = 1 \ne 0 \Rightarrow \mathrm{rang}\,A = 2 \).
2) Находим ранг: \( \mathrm{rang}\,S = \mathrm{rang}\,A = 2 \).
3) Находим базис \( S = \{\vec{x}_1, \vec{x}_2, \vec{x}_3, \vec{x}_4\} \) по базисному минору \( M_2^5 = \begin{vmatrix} \vec{x}_1 & \vec{x}_2 \\ 1 & 0 \\ 0 & 1 \end{vmatrix} = 1 \ne 0 \) \(\Rightarrow\) \( B_s^{(1)} = (\vec{x}_1, \vec{x}_2) \).
4) Находим, перебирая все базисные миноры, другие (отличающиеся составом) базисы \( S = \{\vec{x}_1, \vec{x}_2, \vec{x}_3, \vec{x}_4\} \):
\( M_2^6 = \begin{vmatrix} \vec{x}_1 & \vec{x}_4 \\ 1 & 0 \\ 0 & 2 \end{vmatrix} = 2 \ne 0 \Rightarrow B_s^{(2)} = (\vec{x}_1, \vec{x}_4) \);
\( M_2^7 = \begin{vmatrix} \vec{x}_2 & \vec{x}_3 \\ 0 & 2 \\ 1 & 0 \end{vmatrix} = -2 \ne 0 \Rightarrow B_s^{(3)} = (\vec{x}_2, \vec{x}_3) \);
\( M_2^8 = \begin{vmatrix} \vec{x}_3 & \vec{x}_4 \\ 2 & 0 \\ 0 & 2 \end{vmatrix} = 4 \ne 0 \Rightarrow B_s^{(4)} = (\vec{x}_3, \vec{x}_4) \).
САВ \( \{\vec{x}_1, \vec{x}_2\} \), \( \{\vec{x}_1, \vec{x}_4\} \) не могут быть базисами, так как \( \begin{vmatrix} \vec{x}_1 & \vec{x}_3 \\ 1 & 2 \\ 0 & 0 \end{vmatrix} = 0 \), \( \begin{vmatrix} \vec{x}_2 & \vec{x}_4 \\ 0 & 0 \\ 1 & 2 \end{vmatrix} = 0 \) и базисных миноров нет — но в данном случае все четыре пары дают ненулевые миноры, поэтому все перечисленные выше являются базисами.
Лекция.
§3. Линейное пространство: определение, примеры. Изоморфизм ЛП.
Определение 1.1. Линейным пространством называют множество \( L \) элементов \( x, y, z, \dots \) любой природы, если выполнены три условия:
1) введена операция сложения элементов \( L \), т.е. \( \forall x, y \in L \) соответствует элемент \( z = x + y \in L \), называемый суммой элементов \( x, y \);
2) введена операция умножения элемента \( L \) на число, т.е. \( \forall x \in L \), \( \forall \alpha \in \mathbb{R} \) соответствует элемент \( y = \alpha \cdot x \in L \), называемый произведением элемента \( x \) на действительное число \( \alpha \);
3) указанные операции подчиняются аксиомам линейного пространства:
а) \( x + y = y + x \) (аксиома коммутативности);
б) \( (x + y) + z = x + (y + z) \) (аксиома ассоциативности относительно операции сложения);
в) \( (\alpha\beta)x = \alpha(\beta x) \) (аксиома ассоциативности относительно операции умножения на число);
г) \( \alpha(x + y) = \alpha x + \alpha y \) (аксиома дистрибутивности относительно операции сложения);
д) \( (\alpha + \beta)x = \alpha x + \beta x \) (аксиома дистрибутивности относительно операции умножения на число);
е) для \( \forall x \): \( 1 \cdot x = x \);
ж) \( \exists \) элемент \( o \in L \): \( x + o = x \) для \( \forall x \);
з) \( \exists \) элемент \( (-x) \in L \): \( x + (-x) = o \) для \( \forall x \).
Здесь \( \alpha, \beta \in \mathbb{R} \) — действительные числа.
Элемент \( o \) называют нулевым элементом, элемент \( (-x) \) называют противоположным элементом (к элементу \( x \)).
Линейное пространство, состоящее только из нулевого элемента, называют нулевым. Множество \( L \), обладающее свойствами 1) и 2), называют замкнутым относительно операций сложения элементов и умножения элемента на число.
Если в определении линейного пространства числа \( \alpha, \beta \in \mathbb{C} \), то \( L \) называют комплексным линейным пространством.
Примеры линейных пространств.
1. Множество \( V_2 \) и \( V_3 \) — множество всех свободных геометрических векторов на плоскости и в пространстве с введёнными для них операциями сложения и умножения вектора на число.
2. Множество \( \mathbb{R}^n \) — множество всех арифметических \( n \)-мерных векторов \( \vec{x} = (x_1, x_2, \dots, x_n) \) с введёнными для них операциями сложения и умножения арифметического вектора на число.
3. Множество \( M_{mn}(\mathbb{R}) \) — множество всех матриц размерности \( m \times n \), элементами которых являются действительные числа.
4. Множество \( K_n[x] \) — множество всех многочленов
\( P_n(x) = a_0 x^n + a_1 x^{n-1} + \dots + a_n x^0 \).
5. Множество всех решений однородной СЛАУ
\(
\begin{cases}
\alpha_{11}x_1 + \dots + \alpha_{1n}x_n = 0 \\
\quad\vdots \\
\alpha_{m1}x_1 + \dots + \alpha_{mn}x_n = 0
\end{cases}
\)
ранг которой меньше числа неизвестных.
6. Множество \( C_{[a,b]} \) — множество всех непрерывных на отрезке \( [a,b] \) функций \( f(x) \).
Определение 1.2. Два ЛП \( L_1 \) и \( L_2 \) называют изоморфными, если между ними можно установить линейное взаимно однозначное отображение \( A: L_1 \leftrightarrow L_2 \).
Теорема 1.1. Два конечномерных ЛП изоморфны тогда и только тогда, когда они имеют одинаковую размерность. Все \( n \)-мерные ЛП изоморфны пространству \( \mathbb{R}^n \).
Данное утверждение позволяет изучать свойства ЛП одной размерности \( n \) с элементами любой природы, изучая их на примере пространства \( \mathbb{R}^n \).
§4. Линейное пространство арифметических векторов \( \mathbb{R}^n \). Базис, канонический базис, ранг, размерность \( \mathbb{R}^n \). Теорема о единственности разложения АВ в данном базисе \( \mathbb{R}^n \). Критерий линейной независимости системы из \( n \) векторов \( \mathbb{R}^n \).
Определение 2.1. Линейное пространство называют пространством арифметических векторов (линейным векторным пространством, арифметическим пространством, координатным пространством) и обозначают \( \mathbb{R}^n \), если его элементами являются арифметические векторы.
Определение 2.2. Базисом \( \mathbb{R}^n \) называют любую упорядоченную систему его векторов \( B_{\mathbb{R}^n} = (\vec{b}_1, \vec{b}_2, \dots, \vec{b}_m) \), для которой выполнены условия:
1) система \( B_{\mathbb{R}^n} \) линейно независима;
2) каждый элемент \( \vec{x} \in \mathbb{R}^n \) может быть представлен в виде линейной комбинации векторов системы \( B_{\mathbb{R}^n} \), т.е. в виде
\( \vec{x} = \alpha_1 \vec{b}_1 + \alpha_2 \vec{b}_2 + \dots + \alpha_m \vec{b}_m. \qquad (2.1) \)
где \( \alpha_1, \alpha_2, \dots, \alpha_m \in \mathbb{R} \) — действительные числа.
Теорема 2.1. В линейном пространстве \( \mathbb{R}^n \) разложение любого \( \vec{x} \in \mathbb{R}^n \) по данному базису \( B_{\mathbb{R}^n} = (\vec{b}_1, \vec{b}_2, \dots, \vec{b}_m) \) единственно.
Д-во (методом от противного). Предположим, что существует два разных разложения
\( \vec{x} = \alpha_1 \vec{b}_1 + \dots + \alpha_m \vec{b}_m \),
\( \vec{x} = \beta_1 \vec{b}_1 + \dots + \beta_m \vec{b}_m \).
Вычитая, получаем \( (\alpha_1 - \beta_1)\vec{b}_1 + \dots + (\alpha_m - \beta_m)\vec{b}_m = \vec{o} \). Поскольку \( B_{\mathbb{R}^n} \) линейно независима, все коэффициенты нулевые: \( \alpha_i = \beta_i \), \( i = \overline{1,m} \). Противоречие. Следовательно, разложение единственно. Ч.Т.Д.
Теорема 2.2. В линейном пространстве \( \mathbb{R}^n \) любая система его векторов, состоящая из \( (n+1) \) вектора, всегда линейно зависима.
Д-во. Рассмотрим систему векторов \( \{\vec{x}_1, \vec{x}_2, \dots, \vec{x}_n, \vec{x}_{n+1}\} \). Составим для неё векторное равенство \( \alpha_1 \vec{x}_1 + \alpha_2 \vec{x}_2 + \dots + \alpha_n \vec{x}_n + \alpha_{n+1} \vec{x}_{n+1} = \vec{o} \). \(\Rightarrow\)
\( \Rightarrow \alpha_1 \begin{pmatrix}x_{11}\\x_{21}\\\vdots\\x_{n1}\end{pmatrix} + \dots + \alpha_{n+1} \begin{pmatrix}x_{1,n+1}\\x_{2,n+1}\\\vdots\\x_{n,n+1}\end{pmatrix} = \begin{pmatrix}0\\0\\\vdots\\0\end{pmatrix} \) \(\Rightarrow\) система \( n \) однородных уравнений с \( n+1 \) неизвестными \( \alpha_1, \dots, \alpha_{n+1} \), которая всегда имеет ненулевое решение. Следовательно, САВ линейно зависима. Ч.Т.Д.
Теорема 2.3. В ЛП \( \mathbb{R}^n \) любая упорядоченная линейно независимая система из \( n \) векторов является его базисом.
Д-во. Пусть система векторов \( \vec{b}_1, \vec{b}_2, \dots, \vec{b}_n \in \mathbb{R}^n \) линейно независима. Тогда система \( \vec{x}, \vec{b}_1, \vec{b}_2, \dots, \vec{b}_n \in \mathbb{R}^n \) из \( (n+1) \) элемента является линейно зависимой (по теореме 2.2), где \( \vec{x} \) — произвольный элемент \( \mathbb{R}^n \). По определению линейной зависимости выполняется равенство \( \alpha_0 \vec{x} + \alpha_1 \vec{b}_1 + \dots + \alpha_n \vec{b}_n = \vec{o} \), где \( \alpha_0 \ne 0 \) (в противном случае пришли бы к противоречию с линейной независимостью \( \vec{b}_1, \dots, \vec{b}_n \)). Тогда \( \alpha_0 \ne 0 \), и получаем
\( \vec{x} = \left(-\frac{\alpha_1}{\alpha_0}\right) \vec{b}_1 + \left(-\frac{\alpha_2}{\alpha_0}\right) \vec{b}_2 + \dots + \left(-\frac{\alpha_n}{\alpha_0}\right) \vec{b}_n \).
Таким образом, любой вектор \( \vec{x} \in \mathbb{R}^n \) представим в виде линейной комбинации линейно независимой системы векторов \( \vec{b}_1, \dots, \vec{b}_n \), т.е. эта система — базис \( \mathbb{R}^n \). Ч.Т.Д.
На основании теоремы 2.3, базисом \( \mathbb{R}^n \) является всякая упорядоченная система из \( n \) линейно независимых векторов: \( B_{\mathbb{R}^n} = (\vec{b}_1, \vec{b}_2, \dots, \vec{b}_n) \). Представление \( \vec{x} = \alpha_1 \vec{b}_1 + \alpha_2 \vec{b}_2 + \dots + \alpha_n \vec{b}_n \) называют разложением вектора \( \vec{x} \in \mathbb{R}^n \) по базису \( B_{\mathbb{R}^n} \), коэффициенты \( \alpha_1, \alpha_2, \dots, \alpha_n \in \mathbb{R} \) — координатами вектора в базисе \( B_{\mathbb{R}^n} \), и пишут \( \vec{x} = (\alpha_1, \alpha_2, \dots, \alpha_n)_{B_{\mathbb{R}^n}} \). Запись \( \vec{x} = (\alpha_1, \alpha_2, \dots, \alpha_n)_{B_{\mathbb{R}^n}} \) называют координатной записью АВ \( \vec{x} \in \mathbb{R}^n \) в заданном базисе \( B_{\mathbb{R}^n} \).
Теорема 2.4 (критерий линейной независимости системы из \( n \) векторов \( \mathbb{R}^n \)).
Всякая упорядоченная система из \( n \) векторов \( (\vec{b}_1, \vec{b}_2, \dots, \vec{b}_n) \) образует базис \( \mathbb{R}^n \) тогда и только тогда, когда \( \mathrm{rang}\,(\vec{b}_1, \vec{b}_2, \dots, \vec{b}_n) = n \).
Всякая упорядоченная система из \( n \) векторов \( (\vec{b}_1, \vec{b}_2, \dots, \vec{b}_n) \) образует базис \( \mathbb{R}^n \) тогда и только тогда, когда определитель, столбцами которого являются компоненты векторов \( \vec{b}_1, \vec{b}_2, \dots, \vec{b}_n \), отличен от нуля.
Определение 2.3. Каноническим базисом \( \mathbb{R}^n \) называют базис \( (\vec{e}_1, \vec{e}_2, \dots, \vec{e}_n) \), где
\( \vec{e}_1 = (1,0,0,\dots,0) \), \( \vec{e}_2 = (0,1,0,\dots,0) \), …, \( \vec{e}_n = (0,0,\dots,0,1) \) — единичные векторы.
В каноническом базисе запись \( \vec{x} = (x_1, x_2, \dots, x_n) \) означает запись \( \vec{x} = x_1 \vec{e}_1 + x_2 \vec{e}_2 + \dots + x_n \vec{e}_n \), т.е. компоненты АВ являются его координатами. Канонический базис в координатной записи АВ не указывается: он предполагается «по умолчанию».
Определение 2.4. Рангом пространства \( \mathbb{R}^n \) называют число векторов в любом из его базисов. Ранг \( \mathbb{R}^n \) очевидно равен \( n \).
Определение 2.5. Размерностью пространства \( \mathbb{R}^n \) называют ранг \( \mathbb{R}^n \). Обозначают \( \dim \mathbb{R}_n \). Очевидно \( \dim \mathbb{R}_n = n \).
Различных базисов в ЛП \( \mathbb{R}^n \) может быть не один, но число векторов в них всегда равно \( n \).
§5. Координаты вектора \( \mathbb{R}^n \), линейные операции над векторами в координатной форме. Преобразование координат вектора при замене базиса.
Согласно определению базиса, базис \( B_{\mathbb{R}^n} = (\vec{b}_1, \vec{b}_2, \dots, \vec{b}_n) \) является упорядоченной системой. Порядок векторов в базисе определяется их нумерацией. Фиксация порядка позволяет заменить линейную комбинацию \( \alpha_1 \vec{b}_1 + \alpha_2 \vec{b}_2 + \dots + \alpha_n \vec{b}_n \) упорядоченным набором коэффициентов \( (\alpha_1, \alpha_2, \dots, \alpha_n) \), а саму запись — координатной формой.
Запись \( \vec{x} = \alpha_1 \vec{b}_1 + \alpha_2 \vec{b}_2 + \dots + \alpha_n \vec{b}_n \) заменяет более короткой координатной записью \( \vec{x} = (\alpha_1, \alpha_2, \dots, \alpha_n)_{B_{\mathbb{R}^n}} \). Кроме того, фиксация порядка позволяет перейти к матричной форме:
\( \vec{x} = \alpha_1 \vec{b}_1 + \alpha_2 \vec{b}_2 + \dots + \alpha_n \vec{b}_n = (\vec{b}_1\ \vec{b}_2\ \dots\ \vec{b}_n) \cdot \begin{pmatrix} \alpha_1 \\ \alpha_2 \\ \vdots \\ \alpha_n \end{pmatrix} = B \cdot X \), где \( X = \begin{pmatrix} \alpha_1 \\ \alpha_2 \\ \vdots \\ \alpha_n \end{pmatrix} \) — матрица-столбец координат вектора в заданном базисе, \( B = (\vec{b}_1\ \vec{b}_2\ \dots\ \vec{b}_n) \) — матрица-строка, элементами которой являются векторы \( \vec{b}_i \).
Рассмотрим выполнение линейных операций над АВ, заданными в одном базисе \( B_{\mathbb{R}^n} \). Пусть \( \vec{x} = (x_1, x_2, \dots, x_n)_{B_{\mathbb{R}^n}} \), \( \vec{y} = (y_1, y_2, \dots, y_n)_{B_{\mathbb{R}^n}} \). Тогда:
\( \vec{x} + \vec{y} = (x_1, x_2, \dots, x_n)_B + (y_1, y_2, \dots, y_n)_B = (x_1 + y_1, x_2 + y_2, \dots, x_n + y_n)_B \),
\( \alpha \cdot \vec{x} = \alpha \cdot (x_1, x_2, \dots, x_n)_B = (\alpha x_1, \alpha x_2, \dots, \alpha x_n)_B \).
Таким образом, при сложении двух векторов \( \vec{x}, \vec{y} \in \mathbb{R}^n \), записанных в координатной форме, их координаты в одном и том же базисе складываются, а при умножении вектора на число его координаты умножаются на это число.
В ЛП все базисы равноправны. Тот или иной базис выбирают исходя из конкретных обстоятельств. Иногда удобно для представления элементов ЛП использовать несколько базисов. Тогда возникает задача преобразования координат элементов ЛП при переходе от одного базиса ЛП к другому.
Пусть в линейном пространстве \( \mathbb{R}^n \) заданы два базиса: старый \( B_{\mathbb{R}^n} = (\vec{b}_1, \vec{b}_2, \dots, \vec{b}_n) \) и новый \( B'_{\mathbb{R}^n} = (\vec{b}'_1, \vec{b}'_2, \dots, \vec{b}'_n) \). Разложим каждый вектор нового базиса по старому:
\( \vec{b}'_1 = c_{11} \vec{b}_1 + c_{21} \vec{b}_2 + \dots + c_{n1} \vec{b}_n \),
\( \vec{b}'_2 = c_{12} \vec{b}_1 + c_{22} \vec{b}_2 + \dots + c_{n2} \vec{b}_n \),
\(\dots\)
\( \vec{b}'_n = c_{1n} \vec{b}_1 + c_{2n} \vec{b}_2 + \dots + c_{nn} \vec{b}_n \).
Матрицу \( C = \begin{pmatrix}
c_{11} & c_{12} & \dots & c_{1n} \\
c_{21} & c_{22} & \dots & c_{2n} \\
\vdots & \vdots & \ddots & \vdots \\
c_{n1} & c_{n2} & \dots & c_{nn}
\end{pmatrix} \) называют матрицей перехода от старого базиса \( B \) к новому \( B' \). Элементы \( c_{ij} \) — координаты вектора \( \vec{b}'_j \) в старом базисе \( B \), т.е. \( \vec{b}'_j = (c_{1j}, c_{2j}, \dots, c_{nj})_B \).
Коэффициенты разложения векторов нового базиса по старому базису являются элементами матрицы перехода \( U \). Матрица перехода \( U \) обладает следующими свойствами:
1) Матрица \( U \) — невырожденная и, следовательно, имеет обратную матрицу \( U^{-1} \);
2) Матрица \( U^{-1} \) является матрицей перехода от нового базиса \( B'_{\mathbb{R}^n} \) к старому базису \( B_{\mathbb{R}^n} \);
3) Если в ЛП заданы три базиса \( B_{\mathbb{R}^n} \), \( \tilde{B}_{\mathbb{R}^n} \), \( \tilde{\tilde{B}}_{\mathbb{R}^n} \) с матрицами перехода \( U \) и \( \tilde{U} \), то переход от базиса \( B_{\mathbb{R}^n} \) к базису \( \tilde{\tilde{B}}_{\mathbb{R}^n} \) осуществляется матрицей \( U \cdot \tilde{U} \).
Действительно: \( \tilde{B} = B \cdot U \), \( \tilde{\tilde{B}} = \tilde{B} \cdot \tilde{U} \Rightarrow \tilde{\tilde{B}} = (B \cdot U) \cdot \tilde{U} = B \cdot (U \cdot \tilde{U}) \).
Координаты \( X \) вектора \( \vec{x} \) при изменении базиса будут преобразовываться следующим образом:
\( \vec{x} = B \cdot X = B^* \cdot X^* = B \cdot U \cdot X^* \Rightarrow \boxed{X = U \cdot X^*} \)
или
\( \vec{x} = B^* \cdot X^* = B \cdot X = B^* \cdot U^{-1} \cdot X \Rightarrow \boxed{X^* = U^{-1} \cdot X} \)
где \( U \) — матрица перехода от старого базиса к новому, \( U^{-1} \) — матрица перехода от нового базиса к старому.