Алгоритм переменной метрики (АПМ)
В основе АПМ лежит ньютоновский алгоритм оптимизации с использованием вторых производных оценки, т.е. трех первых слагаемых в разложении (3.2). Для достижения минимума необходимо, чтобы
, т.е. дифференцированием (3.2) условие оптимальности можно получить в виде
с очевидным решением
(3.5)
однозначно указывающим направление, гарантирующее достижение на данном шаге минимальной .
Применение (3.5) требует положительной определенности на каждом шаге, что в общем случае практически неосуществимо, поэтому в известных реализациях алгоритма, как правило, вместо точного
используется его приближение
, при котором гессиан или обратная ему величина модифицируется на величину некоторой поправки, вычис–ляемой по формулам Бройдена–Флетчера–Гольдфарба–Шенно (BFGS – метод) или Дэвидона–Флетчера–Пауэлла (DFP – метод). Если обозначить
то процесс уточнения матрицы V можно описать рекуррентными зависимостями: для BFGS – метода –
(3.6)
а для DFP – метода –
(3.7)
где в качестве начального значения обычно принимается V0=1, а первая итерация выполняется в соответствии с АНС. Показано, что обеспечение с помощью (3.5), (3.6) положительной определенности гессиана на каждом шаге итерации действительно гарантирует решение проблемы оптимизации, причем метод BFGS менее чувствителен к различным погрешностям вычислительного процесса.
АПМ характеризуется более быстрой сходимостью, чем АНС, и именно он в настоящее время считается одним из наиболее эффективных методов оптимизации функций нескольких переменных, а, следовательно, и обучения ИНС. Его недостаток – это большие вычислительные затраты, связанные с необходимостью расчета и хранения в памяти n2 элементов гессиана в каждом цикле, что при оптимизации функции с большим количеством переменных может стать серьезной проблемой. По этой причине метод применяется для не очень больших НС, имеющих не более тысячи взвешенных связей.
3.2.1.3. Алгоритм Левенберга–Марквардта (АЛМ)
Как и АПМ, АЛМ относится к ньютоновским методам оптимизации с заменой приближенным
, рассчитываемым на основе имеющейся информации о
с учетом некоторого фактора регуляризации. Обозначая
(3.8)
где , вектор градиента
и матрицу
можно представить в виде
(3.9)
где – компоненты
с высшими производными относительно
, которые в АЛМ аппроксимируются с помощью скалярного параметра Левенберга–Марквардта u, изменяющегося в процессе оптимизации таким образом, что
(3.10)
В начале обучения, когда значения далеки от решения, используют
, т.е.
и
, однако по мере уменьшения погрешности
первое слагаемое в (3.10) начинает играть все более важную роль. Эффективность метода сильно зависит от выбора ut. Существуют различные способы подбора этого параметра, однако наиболее известна методика Д. Марквардта:
– если , то
, где r>1 – коэффициент уменьшения u;
– если , а
, то
;
– если и
, то
до достижения
.
Заметим, что в непосредственной близости к точке решения u=0, процесс определения сводится к аппроксимации 1–го порядка, а АЛМ превращается в алгоритм Гаусса–Ньютона, характеризующийся квадратичной сходимостью к оптимальному решению.