Ограниченность однослойного персептрона
Нейроинформатика

В рамках нейроинформатики рассматриваются устройства структурно и функционально подобные мозгу человека.

Поэтому схематично нейрон можно представить в следующем виде:
| Дендриты |
| Тело клетки |
| Аксон |



Выделим основные типы задач, успешно решаемых при помощи искусственных нейронных сетей в настоящее время:
1)аппроксимация функций (построение моделей трудно формализуемых зависимостей).
Предположим, что имеется обучающая выборка ((x1, y1), (x2, y2), … , (xn, yn)), представленная парами вход – выход, которая генерируется неизвестной функцией y = f(x), искаженной шумом.
Задача аппроксимации состоит в нахождении оценки неизвестной функции y = f(x), что используется при решении многочисленных инженерных и научных задач моделирования
2)классификация образов (задача состоит в указании принадлежности входного образа, представленного вектором признаков, одному или нескольким предварительно определенным классам)
3)кластеризация (в этом случае отсутствует обучающая выборка с метками классов).
Алгоритм кластеризации основан на подобии образов и размещает похожие образы в один кластер, а не похожие – в другой.
4)прогнозирование
5)задачи оптимизации
6)задачи управления.
Для применения нейронных сетей желательно выполнение следующих условий:
1. Накоплены достаточные объемы данных о поведении системы в предыдущие периоды времени;
2. Не существует традиционных методов или алгоритмов, которые удовлетворительно решают требуемую задачу;
3. Исходные данные частично искажены, противоречивы или не полны и поэтому традиционные методы решения выдают неудовлетворительный результат.
Далее обратимся к истории развития искусственных нейронных сетей.

В модели математического нейрона можно выделить три основных элемента:
1.Набор связей (синапсов), каждая из которых характеризуется своим весом.

2.Сумматор.

3.Функция активации.





В математическом нейроне в качестве функции активации использовалась пороговая функция (рис. 3.2).




Математические нейроны могут реализовывать различные логические функции. Так, математический нейрон, имеющий два входа с единичными силами связей
, реализует функцию логического умножения «И» при
и функцию логического сложения «ИЛИ» при
.
Нейрон с одним входом, у которого
, реализует логическую функцию «НЕТ» при
.


Фактически рассматриваемый персептрон состоит из одного единственного математического нейрона, который вместо реализации логических функций проводит классификацию цифр на четные и нечетные.







Ограниченность однослойного персептрона
Когда Ф. Розенблатту удалось обучить персептрон распознаванию букв латинского алфавита, это был колоссальный успех.













Многослойный персептрон




Двухслойный персептрон является наиболее общим классом сетей и способен формировать произвольные выпуклые многоугольные решающие области.

Именно двухслойные персептроны, содержащие входной, скрытый и выходной слои нейронов, чаще всего применяются на практике, так как они позволяют воспроизводить достаточно сложные зависимости.

В общем случае можно выделить три фундаментальных класса архитектур нейронных сетей:


Рассмотрим чуть подробнее первый вид архитектуры.


Второй вид архитектуры –


Третий вид архитектуры –



В искусственных нейронных сетях, используемых в научных и практических целях в настоящее время используются различные функции активации. Рассмотрим наиболее распространенные из них. Пусть значение, подаваемое в качестве аргумента для пороговой функции обозначено как и ранее через
, а выходной сигнал - 
Виды функций активации:
1. Пороговая функция 

2. Сигмоидальная функция
а) логистическая функция


б) гиперболический тангенс


3. Линейная функция
а) с неограниченной областью изменения
б) с ограниченной областью изменения

4. Радиально-базисная функция



Рассмотрим алгоритм решения задач при использовании искуссвенных нейронных сетей:
1. Постановка задачи
2. Формирование обучающего множества (обучающей выборки)
3. Выбор нейросетевой модели (структуры нейронной сети), в рамках которой будет производиться решение задачи
4. Выполнение алгоритма обучения сети
5. Тестирование обученной сети на новых данных, которых не было в обучающем множестве.
Далее рассмотрим немного подробнее вопрос обучения нейронных сетей. В целом, суть всего процесса обучения нейросетей состоит в подстройке синаптических весов (то есть величин, обозначенных wij). Первоначальные значения указанных величин в большинстве случаев назначаются датчиком случайных чисел, после чего происходит их корректировка в соответствии с некоторыми правилами.
Схему процесса обучения нейронной сети можно представить в следующем виде:
Рассмотрим парадигмы обучения нейронных сетей.

Таким образом, для обучения с учителем характерно наличие в обучающей выборке ожидаемых ответов сети. Например, для обучения нейронной сети, используемой для аппроксимации значений неизвестной функции, обучающее множество можно представить в виде:
| x | ||||||
| y | 0.6 |
Выделим наиболее распространенные алгоритмы обучения нейронных сетей в рамках обучения с учителем:
1. Методы локальной оптимизации с вычислением частных производных 1-го порядка:
а) метод градиентного спуска (наиболее распространенный пример - алгоритм обратного распространения ошибки)
б) методы с одномерной и двумерной оптимизацией целевой функции в направлении антиградиента
в) метод сопряженных градиентов
2. Методы локальной оптимизации вычислением частных производных 1-го и 2-го порядков:
а) квазиньютоновские методы
б) методы оптимизации с разреженными матрицами Гессе
в) метод Левенберга-Маркардта
3. Методы стохастической оптимизации:
а) методы случайного поиска
б) метод Монте-Карло
в) метод квази Монте-Карло
4. Методы глобальной оптимизации (переборные методы).
Задачи глобальной оптимизации решаются с помощью перебора значений переменных, от которых зависит целевая функция.
Для сравнения эффективности методов обучения нейросетей используют следующие критерии:
· количество шагов алгоритма;
· количество дополнительных переменных.






Выделим наиболее распространенные алгоритмы обучения нейронных сетей в рамках обучения без учителя:
1. Алгоритмы обучения Хебба
а) сигнальный метод обучения Хебба
б) дифференциальный метод обучения Хебба
2. Алгоритм обучения Кохонена