Использование сдвига для улучшения сходимости
Так же, как и прямой степенной, обратный степенной метод может оказаться медленно сходящимся. Напомним (см формулу (11.2)), что вектор
, принятый как начальный, можно представить как линейную комбинацию собственных векторов исследуемой матрицы
:
. (11.13)
Тогда после
-го шага обратного степенного метода
. (11.14)
Ясно, что вектор
тем скорее станет доминирующим, чем больше будет отношение
. Быстрее всего последовательность (11.14) сходилась бы, если бы
было очень малой величиной, близкой к нулю. К сожалению,
мы поменять не можем – ведь это и есть та величина, которую надо определить.
Вспомним, однако, свойство операции сдвига матриц:
Операцией сдвига по отношению к матрице называется вычитание из всех ее диагональных элементов одного и того же числа. Так, выражение

означает, что матрица
получена в результате сдвига матрицы
на
.
Для приложений очень важно следующее свойство этой операции: в результате операции сдвига собственные значения матрицы изменяются на величину сдвига, а соответствующие собственные вектора остаются прежними. В самом деле, пусть
собственное значение матрицы
, а
– соответствующий собственный вектор. Тогда
.
Если
– собственные значения матрицы
и
– соответствующие собственные векторы, то матрица
имеет собственные значения
и собственные векторы
.
Согласно этому свойству, если нам будет известно достаточно хорошее приближение
, то обратный степенной метод для матрицы
будет сходиться значительно быстрее, чем для матрицы
. Полученные для
минимальное собственное значение (обозначим его
) и собственный вектор
позволяют определить минимальное собственное значение
и собственный вектор
матрицы
.
Остается вопрос, откуда взять хорошее приближение для
? Практика и теоретические исследования показали, что лучшим выбором является отношение Рэлея:
, (11.15)
где, вообще говоря,
– произвольный вектор; мы же будем брать в качестве
вектор, полученный в результате очередной итерации.
Более подробно это отношение и его свойства будут рассмотрены в следующих лекциях. Здесь же отметим еще, что для произвольного вектора 
, (11.16)
причем равенство достигается в случае, если
является первым собственным вектором матрицы
.
Пример.Вновь рассмотрим ту же матрицу

с тем же начальным вектором
.
Кстати, поясним несколько странный выбор начального вектора в трех примерах этого параграфа. Обычно при применении степенных методов, не мудрствуя лукаво, в качестве начального вектора берут вектор с единичными элементами, т.е. следовало бы принять
. Однако в этом случае
точно совпало бы с собственным вектором матрицы
. Поэтому для того, чтобы показать, как в процессе итераций от исходного неточного вектора происходит постепенное приближение к собственному, пришлось немного «испортить» начальный вектор.
1-я итерация:
Как видим, уже первая итерация дала такую точность, какую методы без сдвига достигали лишь после третьей итерации. Для убедительности примера все-таки проведем еще одну итерацию.
2-я итерация:

Метод Якоби
Вспомним, что если
– ортогональная матрица, приводящая матрицу
к диагональному виду:
, то столбцы
– собственные вектора матрицы
, а элементы диагональной матрицы
– ее собственные значения.
Ортогональные матрицы
Определение. Матрица

называется ортогональной, если ее столбцы ортонормированны, то есть
.
Следствие.Для ортогональной матрицы ее обратная матрица равна ее транспонированной, т.е.
или, что то же самое,
.
Еще одно следствие. Произведение ортогональных матриц есть ортогональная матрица. В самом деле, если
и
, то
.