Обучение и его модели. Самообучение

В психологии под обучением понимают усвоение ранее неизвестных знаний, умений и навыков. В искусственном интеллекте (ИИ) этому поня­тию соответствует обучение и самообучение интеллектуальной информа­ционной системы (ИИС). Если ИИС стала способна к решению новой за­дачи в результате того, что человек заложил в нее новую информацию или новый способ принятия решения, то она является обучаемой, но не само­обучаемой. Если ИИС стала способна к решению новой задачи на основе самостоятельного анализа новой информации и извлечения из нее полез­ных закономерностей, то она является самообучаемой [4]. В данном посо­бии мы будем рассматривать только самообучаемые системы.

Система обучения состоит из двух взаимосвязанных компонентов: ИИС и «Учитель».

Новое знание является результатом взаимодействия этих компонен­тов. В качестве учителя может выступать человек или окружающая среда (environment).

Различают четыре модели обучения [5].

Условно-рефлекторная модель исторически явилась первой моделью обучения, использованной в ИИС. Принцип условного рефлекса заключа­ется в поощрении правильных действий обучаемого и наложении штрафов за неправильные действия.

Ассоциативнаямодель, основанная на установлении сходства между известным и неизвестным знанием, является более мягкой моделью обуче­ния.

Лабиринтная модель обучения интенсивно изучалась на заре ста­новления кибернетики. Она рассматривает обучение как процесс эвристи­ческого поиска выхода из лабиринта. Поиск осуществляется с примене­нием оценки выбора направления движения в лабиринте на основе некото­рых локальных критериев.

Модель обучения на примерах (прецедентах) нашла наиболее широ­кое применение на практике. В ее основе лежит принцип синтеза законо­мерности на примерах и анализа на контрпримерах. Целью этого синтеза является построение на основе экспериментальных данных моделей, опи­сывающих закономерности между данными, часть из которых принима­ется за входные, а оставшиеся – за выходные.

Под закономерностью будем понимать зависимость между объек­тами ai, aj Î A, формализуемую в виде отношения R Ì A ´ A или n-местной функции f: A ´ … ´ A ® A. Более привычна префиксная запись функции: aj = f (a1, ..., aj, …, an).

Под способом нахождения закономерности будем понимать функ­цию Z = <h, Q, P, R, B> [4], где h – эмпирическая гипотеза о предполагае­мой закономерности на множестве объектов А (конечном или бесконеч­ном), для которых она высказывается; Q = N¢/N – потенциальная опровер­жимость закономерности в N¢ случаях из N возможных; Р – степень под­твержденности гипотезы (прошлый опыт); R – степень объясненности ги­потезы (почему происходит?, как?); B – ясность формулировки гипотезы, характеризуемая ее простотой и гармонией.

Факторы Р и R характеризуют меру обоснованности выдвигаемой гипотезы, а фактор Q – меру ее приемлемости.

Выдвижение гипотез играет центральную роль при поиске законо­мерности. Гипотеза выдвигается на основе анализа обучающих примеров (обучающей выборки данных) и подтверждается или опровергается на контрольных примерах (контрольной выборке данных). Подтверждение гипотезы характеризует успех начального проникновения в предметную область. В случае ее опровержения выдвигается новая гипотеза.

Обучение на примерах является наиболее распространенным мето­дом. Однако в большинстве задач множество примеров потенциально бес­конечно. Это означает, что существующее на данный момент конечное множество примеров может увеличиваться неограниченно. Таким образом, существует возможность проводить обучение на порциях примеров. Каче­ство обучения в существенной степени зависит от представительности со­вокупности обучающих примеров, или, выражаясь языком математической статистики, от представительности обучающей выборки.

К представительной следует отнести такую обучающую выборку А, которая позволяет в выбранном пространстве контрольных признаков найти закономерность, действительную для новых примеров (контрольной выборки С) с ошибкой, не превышающей Q.

Исходя из приведенного определения, естественным является вывод, что закономерность y = f (x1, …, xn), справедливая для некоторой генераль­ной выборки U, справедлива и для обучающей выборки А, и для контроль­ной выборки С лишь в том случае, если каждая из них в отдельности хо­рошо представляет генеральную совокупность U.

Прямые доказательства того, выполняются ли эти условия в кон­кретной задаче, получить сложно в силу большого объема генеральной со­вокупности U. Поэтому принимаются в рассмотрение косвенные показа­тели. Считается, например, что чем больше объем m обучающей выборки А, тем больше вероятность того, что закономерность y = f (x1, …, xn), уста­новленная на обучающей выборке А, справедлива и для контрольной вы­борки С. Однако показатель m недостаточен для характеризации обучаю­щей выборки А, поскольку важен не только ее объем, но и состав, т.е. ин­формативность для установления закономерности той части генеральной совокупности U, которую она представляет.

В последующих разделах описана экспертная система, в которой реализована модель обучения на примерах. Для конкретных вариантов по­строения экспертной системы рассмотрены и вопросы представительности обучающей выборки.

 



?>