Простейший персептрон и его характеристика

Нейрон и его искусственная модель.

Нейроном называют нервную клетку, т.е. базовый элемент нервной системы (человека или другого живого существа). В частности, считается, что мозг человека состоит из примерно нейронов, которые имеют между собой примерно соединений.

В каждом нейроне выделяют тело нервной клетки, называемое сомой, и два вида отростков:

дендриты (по которым в нейрон поступает входная информация);

аксон(по которому нейрон передает свою выходную информацию).

Рис. 1. Упрощенная модель нейрона и его связи с другим нейроном:

1 – тело клетки (сома), 2 – аксон, 3 – дендриты, 4 – синапсы.

Каждый нейрон взаимосвязан с определенным множеством других нейронов и передает возбуждение на них через нервные стыки, называемые синапсами.

Синапсы играют роль неких преобразователей передаваемой от нейрона информации. Они могут усиливать или, наоборот, ослаблять возбуждение связываемых с данным нейроном других нейронов. В итоге к какому-либо конкретному нейрону часть сигналов от других нейронов может его возбуждать, а от других оказывать тормозящее воздействие.

 

Модель искусственного нейрона вида (1.2) представлена на рис. 2.

В качестве функции ныне используют на практике не только функция (1.2), предложенная МакКалахом (Mc Culloch W.S.) и Питтсом, но ряд других. Например, применяют

(1.4)

или

(1.5)

Но наиболее часто в настоящее время используют для модели искусственного нейрона в качестве сигмоидальную функцию, определяемую выражением

. (1.6)

Если в (1.6) , то характеристика будет приближаться к пороговой униполярной функции (1.3).

В моделях искусственного нейрона используется также в качестве альтернативы рассмотренным выше функциям функция гиперболического тангенса

. (1.7)

Простейший персептрон и его характеристика.

Модель МакКаллоха–Питтса послужила Розенблатту основой для построения в конце 1950-х – в начале 1960-х годов простейшей однонаправленной нейронной сети, которую он назвал персептроном. В настоящее время этот персептрон часто называют простейшим персептроном (рис. 5). В качестве функции в нем применялась биполярная функция активации (1.4), график которой приведен на рисунке 3,б.

В этом персептроне сигнал на выходе линейной части определяется выражнением

, (1.8)

где .

Задачей такого персептрона является классификация вектора входных для него переменных , смысл которой заключается в отнесении их к одному из двух классов, обозначаемых как и . Персептрон должен отнести вектор к классу , если выходной сигнал нелинейной части персептрона принимает значение 1, или к классу , если сигнал принимает значение ­–1. Таким образом, персептрон разделяет -мерное пространство входных векторов на два подпространства. Это разделение осуществляется -мерной гиперплоскостью, определяемой уравнением

. (1.9)

 

Гиперплоскость (1.9) обычно называют решающей границей (decision boundary). Если , то решающая граница на плоскости входных векторов представляет собой прямую линию (рис. 6), задаваемую уравнением

. (1.10)

 

 

Рис. 6. Решающая граница для простейшего персептрона при

 

Точки в этой плоскости , лежащие над этой прямой, относятся к классу , а лежащие под этой прямой – к классу . Точки, лежащие на решающей границе относятся в классу (вследствие принятой бинарной характеристики нелинейности согласно (1.4)).

Полагаем, что в исходном состоянии персептрона веса в уравнении гиперплоскости (1.9) неизвестны. Они должны быть определены в процессе обучения персептрона. Для этого на вход персептрона последовательно подаются так называемые обучающие сигналы , где . Такой способ обучения (в данном случае персептрона) называется «обучением с учителем» или «обучение под надзором». Роль учителя фактически сводится к корректному отнесению сигналов к классам или , несмотря на неизвестность весов уравнения решающей границы (1.9).

После завершения процесса обучения персептрон должен самостоятельно корректно классифицировать поступающие на его вход сигналы в том числе и те, которые отсутствовали в обучающей последовательности.

При решении поставленной задачи будем полагать, что входные последовательности действительно удовлетворяют условию классификации, т.е. могут быть разделены на два класса или , разграниченные между собой гиперплоскостью (1.9).

В -й момент времени сигнал на выходе линейной части персептрона определяется выражением

, (1.11)

где

; (1.12)

. (1.13)

 

Обучение персептрона заключается в рекуррентной коррекции вектора весов так, что

(1.14)

и

(1.15)

В приведенном алгоритме обучения - шаг коррекции, а начальное значение вектора весов .

Алгоритм (1.14) и (1.15) можно записать в более сжатом виде. Для этого определим так называемый эталонный (заданный) сигнал как

(1.16)

Выходной сигнал персептрона можно представить в виде:

. (1.17)

В итоге алгоритм обучения (1.14) и (1.15) можно записать в виде:

. (1.18)

Здесь – величина, которую можно рассматривать как погрешность между эталонным (заданным) сигналом и текущим выходным сигналом .

Сходимость алгоритма (1.18) была доказана самим Розенблаттом и рядом других исследователей. Доказано, что для принятой выше линейной сепарабельности входных сигналов согласно (1.9) алгоритм (1.19) сходится, т.е., начиная с некоторого шага , получаем

.

После завершения обучения решающая граница персептрона будет определяться уравнением

и персептрон будет корректно классифицировать не только сигналы обучающей выборки , но и другие входные сигналы , удовлетворяющие условию линейной сепарабельности (1.9).