§ ИСЧИСЛЕНИЕ · 14 МИН ЧТЕНИЯ · Обновлено 2026-05-13

Собственные значения и собственные векторы, интуитивно

Самое важное понятие в линейной алгебре после умножения матриц — и то, которое большинство студентов так и не видят ясно.

"Собственные значения — это секрет матрицы."
Гилберт Странг, лекция MIT 18.06
Eigenvalues and Eigenvectors, Intuitively
EIGENVALUES AND EIGENVECTORS, INTUITIVELY

Когда матрица действует на вектор , результат в общем случае — другой вектор: другое направление, другая длина. Но для некоторых специальных векторов указывает в том же направлении, что и , только растянут или сжат скалярным множителем. Эти векторы называются собственными векторами, а этот скалярный множитель — собственным значением.

Это звучит технически, и определение действительно техническое. Но интуция проста: собственный вектор — это направление, которое матрица сохраняет. Когда матрица действует, собственный вектор остаётся на своей прямой — он просто становится длиннее или короче (или, возможно, переворачивается на другую сторону).

В этой статье рассматривается, что собственные значения и собственные векторы означают интуитивно, приводится формальное определение, поясняется, как их вычислять, обсуждается диагонализация (магия) и четыре основных приложения: метод главных компонент, цепи Маркова, динамические системы и Google PageRank.

Интуиция: направления, которые не меняются

Рассмотрим матрицу 2×2 и её действие на плоскость. Типичная матрица вращает и масштабирует большинство векторов — вектор превращается в , указывающий, как правило, в другом направлении.

Для большинства матриц существуют ровно два особых направления (в 2D), вдоль которых матрица только растягивает или сжимает, не вращая. Это направления собственных векторов. Вектор, направленный вдоль направления собственного вектора, остаётся вдоль этого направления после действия матрицы.

Пример 1. Рассмотрим матрицу .

Вектор удовлетворяет . Значит, — собственный вектор с собственным значением 3.

Вектор удовлетворяет . Значит, — собственный вектор с собственным значением 2.

Матрица растягивает ось x в 3 раза и ось y в 2 раза. Эти две оси и есть направления собственных векторов.

Для общих матриц (не диагональных, как в этом примере) собственные векторы не выровнены по стандартным осям — они могут указывать в любом направлении. Но идея та же: существуют особые направления, которые матрица только растягивает.

Формальное определение

Собственный вектор матрицы — это ненулевой вектор , такой что

для некоторого скаляра . Скаляр — собственное значение, соответствующее .

Две технические детали:

  1. Нулевой вектор исключён — он тривиально удовлетворяет для любого , так что называть его собственным вектором было бы неинтересно.
  2. Собственное значение может быть равно нулю. Собственный вектор с собственным значением ноль — это вектор, который отображает в нулевой вектор.

Как вычислять собственные значения

Перепишем уравнение как , или .

Для того чтобы это уравнение имело ненулевое решение , матрица должна быть выражденной — иметь нулевой определитель.

Характеристическое уравнение:

Это полиномиальное уравнение по . Решая его, находят собственные значения.

Пример 2. Найти собственные значения матрицы .

Решаем: , значит, или .

Собственные значения — 5 и 2.

Как вычислять собственные векторы

Для каждого собственного значения решаем относительно .

Пример 3 (продолжение Примера 2). Найти собственные векторы матрицы .

Для :

Решаем .

Обе строки дают . Значит, собственный вектор — (или любой его скалярный кратный).

Для :

Обе строки дают , то есть . Собственный вектор — .

Таким образом, собственные векторы — (собственное значение 5) и (собственное значение 2). Можно проверить: и . ✓

Диагонализация

Матрица диагонализируема, если у неё есть полный набор собственных векторов — достаточно, чтобы образовать базис.

Для диагонализируемой матрицы :

где — диагональная матрица с собственными значениями на диагонали, а — матрица, чьи столбцы — соответствующие собственные векторы.

Почему это полезно. С диагональными матрицами работать крайне просто. Диагонализация выражает действие общей матрицы в базисе, где это действие сводится к масштабированию вдоль каждого направления.

В частности, , а вычислять легко — нужно просто возвести каждый диагональный элемент в степень .

Пример 4 (продолжение). Для :

Можно проверить, что . А чтобы вычислить , достаточно найти , а затем .

Не каждая матрица диагонализируема. Матрицы с меньшим числом собственных векторов, чем размерность (когда собственные значения имеют геометрическую кратность меньше размерности), диагонализировать нельзя — для них требуется более общее разложение, называемое жордановой канонической формой.

Приложение 1: Метод главных компонент (PCA)

Метод главных компонент (PCA) — наиболее используемый в анализе данных и машинном обучении метод для уменьшения размерности.

Имея набор данных, вычисляют ковариационную матрицу — симметричную матрицу, чей элемент — это ковариация между признаком и признаком . Собственные векторы этой матрицы — главные компоненты, направления максимальной дисперсии в данных. Соответствующие собственные значения измеряют, сколько дисперсии захватывает каждое направление.

Проецируя данные на несколько первых главных компонентов (с наибольшими собственными значениями), вы уменьшаете размерность, сохраняя большую часть структуры. Так PCA снижает размерность набора с 1000 признаков до 50, сохраняя содержательные шаблоны.

Приложение 2: Цепи Маркова

Цепь Маркова — это стохастический процесс, переходящий между состояниями с вероятностями, закодированными в переходной матрице . Долговременное поведение цепи определяется собственными значениями и собственными векторами матрицы .

Наибольшее собственное значение всегда равно 1 (для переходной матрицы, сохраняющей вероятности). Соответствующий собственный вектор — стационарное распределение, то есть предельные доли времени, проводимого в каждом состоянии.

Если моделировать цепь Маркова на большое число шагов, распределение сходится к стационарному собственному вектору. Остальные собственные значения определяют, насколько быстро происходит эта сходимость.

Приложение 3: Динамические системы

Линейная дискретная динамическая система имеет вид . Итерация даёт: .

Долговременное поведение такой системы зависит от собственных значений матрицы :

  • Если все собственные значения имеют модуль меньше 1, то . Система устойчива.
  • Если какое-либо собственное значение имеет модуль больше 1, неограниченно растёт вдоль соответствующего направления собственного вектора. Система неустойчива.
  • Если собственные значения ровно 1, система имеет стационарное состояние.

Непрерывные динамические системы анализируются аналогично, но с использованием действительных частей собственных значений.

Приложение 4: Google PageRank

Изначальный алгоритм PageRank, сделавший Google возможным, — это вычисление собственного вектора.

Веб моделируется как граф, где страницы — вершины, а ссылки — направленные рёбра. Определяется переходная матрица, в которой — вероятность перехода со страницы на страницу (равномерная по исходящим ссылкам из ). Вектор PageRank — вектор значимости для каждой страницы — это доминирующий собственный вектор матрицы (с собственным значением 1).

По сути: страница важна, если на неё ссылаются другие важные страницы. Это рекурсивное определение приводит к уравнению на собственный вектор, которое можно решить.

Изначальная статья Google (Брин и Пейдж, 1998) по сути является статьёй о вычислении доминирующего собственного вектора очень большой разреженной матрицы.


Часто задаваемые

Почему собственные значения называются "eigen"?
От немецкого слова *eigen*, означающего "собственный" или "характерный". Собственное значение — это "собственное" значение матрицы, множитель масштабирования вдоль её сохраняемых направлений. Термин был популяризирован Давидом Гильбертом в 1904 году.
Может ли у матрицы не быть вещественных собственных значений?
У вещественных матриц могут быть комплексные собственные значения. Матрица $\begin{pmatrix} 0 & -1 \\ 1 & 0 \end{pmatrix}$ (поворот на 90°) имеет собственные значения $i$ и $-i$. Геометрически: чистый поворот не имеет фиксированного направления (в вещественной плоскости), поэтому у него нет вещественных собственных векторов.
У всех ли матриц есть собственные значения?
Квадратные матрицы всегда имеют собственные значения — возможно, комплексные. Неквадратные матрицы — нет, но у них есть *сингулярные значения* (вычисляемые из SVD, более общего разложения).
Что такое геометрическая кратность собственного значения?
Размерность собственного подпространства (пространства собственных векторов с данным собственным значением). Она может быть меньше алгебраической кратности (сколько раз собственное значение появляется как корень характеристического полинома). Когда они совпадают, матрица диагонализируема.
Может ли собственное значение быть нулём?
Да. Нулевое собственное значение означает, что матрица отображает соответствующий собственный вектор в нуль. Эквивалентно, матрица вырожденная (необратимая).
Почему PCA вычисляется с использованием собственных векторов ковариационной матрицы?
Потому что ковариационная матрица кодирует линейную структуру данных, а её собственные векторы — направления максимальной дисперсии. Наибольшее собственное значение соответствует направлению, вдоль которого данные варьируются сильнее всего.

— ДЕЙСТВИЕ —


Цитированное и далее

  • ·Strang, G. (2016). Introduction to Linear Algebra, 5th edition. Wellesley-Cambridge Press. — Chapter 6.
  • ·Brin, S. and Page, L. (1998). "The Anatomy of a Large-Scale Hypertextual Web Search Engine."
  • ·Axler, S. (2024). Linear Algebra Done Right, 4th edition. Springer.

Из этого кластера


Об авторе

Tim Sheludyakov пишет библиотеку Stoa.

Автор Tim Sheludyakov · Отредактировано 2026-05-13

Письмо из портика

Раз в неделю — лонгрид, цитата, практика. Без промо. Отписка в один клик.

Нажимая «Подписаться», вы соглашаетесь получать письма Stoa.