Нейронные сети в медицинских технологиях

Нейронные сети используются для следующих задач:

1. Прогнозирование (распознавание изображений, образов, задачи классификации)

2. Задачи оптимизации

3. Автоматическое управление

Многослойный персептрон

Нейроны 1-го слоя выполняют нормировку полученных сигналов. 1-й слой состоит из m нейронов (количество нейронов равно размерности пространства признаков)

Выходной слой для решения задач классификации должен содержать столько нейронов, сколько у нас классов. Каждый нейрон выходного слоя привязан к определенному классу.

Считается, что объект принадлежит классу Ks, если выходной сигнал yks больше остальных.

Обучение проходит по обучающей выборке.

0. Начальная активация (нулевое приближение весов. Их выбирают случайным образом в диапазоне (-1, +1).

1 этап (эпоха). На вход персептрона последовательно подаются объекты

1) подается первый объект. От последнего слоя к первому поступает поправка весов. Следующий объект уже работает с поправкой

n)

(n – объем обучающей выборки)

2 этап. Если обучение не произошло успешно, то повторяется первый этап

Проверка:

- контрольная выборка

- скользящий экзамен

Возможны 2 ошибки:

1. Недообучение: сеть с заданной точностью не распознает объекты из обучающей выборки

· В промежуточный слой добавляют нейроны

· Добавляют промежуточный слой

2. Переобучение: видим то, чего нет

Сети радиальных базисных функций

Каждый р.б.нейрон задаётся гаусовой функцией распределения:

μ – центр радиального базисного нейрона; σ – радиус радиального базисного нейрона

 

Архитектура сети:

Входной слой состоит из m нейронов (m – размерность пространства признаков). Выходной слой состоит из k нейронов (k – количество классов). Промежуточный слой один, состоит из радиальных базисных нейронов, количество которых не известно.

Обучение состоит в определении μ и σ для каждого базисного нейрона.

Определение μ:

1. Центры выбираются случайно

2. Алгоритм k-среднего. Предполагается, что все объекты можно разбить на k кластеров. Для каждого кластера выбираются центры. Для всех объектов обучающей выборки вычисляется расстояние до всех центров. Каждый объект относится к тому кластеру, расстояние до центра которого наименьшее. Затем повторяется то же самое, но с другими центрами.

Условие остановки: алгоритм завершает работу, когда центры классов на каком-то шаге перестают меняться.

Определение σ: метод ближайших соседей.

Вероятностные сети

Используются р.б. нейроны, объединённые в группы (на каждый класс группа).

Каждый выходной нейрон получает сигналы только от р.б. нейронов своего класса.

P1 = Y1/(Y1+Y2) - вероятность того, что объект принадлежит первому классу

P2 = Y2/(Y1+Y2) - вероятность того, что объект принадлежит второму классу

Объект принадлежит тому классу, для которого Р больше.

обучение:

xis -> yis

получаем P(x1s),...,P(xnss) -> fs(x) - оценка на основе плотности в m-мерном пространстве