И геометрическое моделирование
К данному типу относится моделирование психологических структур и процессов. Например, восприятие можно моделировать с помощью субъективных пространств; при разработке теории личности используются модели классификации и реконструируются семантические пространства и т. д. Эти модели строятся на основе применения методов многомерного шкалирования и кластерного анализа. Входными данными в эти методы являются матрицы близостей.
Для подсчета матрицы расстояния необходимо выбрать метрику или метод вычисления расстояния между объектами в многомерном пространстве. Наиболее часто используются следующие метрики;
Евклида:
d. = SQR[(x. - xj2];
ц ^ ' * ik jk' ' '
сити-блок (Манхэттен):
de = SUM <ABS (xlk - XjkVn}; Минковского:
метрика на основе корреляции Пирсона:
dy=l-r,/2;
метрика на основе корреляции Спир-мена:
с!и = 1 - гещ/2;
i j — номера столбцов;
k — номер строки;
cL — элемент матрицы расстояний;
xik' хг~ элементы исходной матрицы;
п — количество объектов.
Коэффициент корреляции Пирсона подсчитывается для данных, измеренных в порядковых шкалах и шкалах наименований:
r.= (SUM{(x.k-x.i)(x.k-x.J})/ (SQR {SUM (xjk-x..)3 SUM (xjfc- x..)3}).
Коэффициент ранговой корреляции rs Спирмена является непараметрическим аналогом классического выборочного коэффициента корреляции (неранговые выборки автоматически ранжируются):
гещ =1-6 (SUM {(Xik- xjk}2)/n(n2 - 1).
Исходный этап для применения МШ (многомерное шкалирование) и КА (кластерный анализ) — это вычисление расстояний между строками или столбцами.
Наиболее распространенной считается обычная евклидова метрика. Ее обобщение — метрика Минковского, частным случаем которой является манхэггеновская метрика, или метрика сити-блок. Нормализованные евклидовы расстояния в большей степени подходят для переменных, измеренных в различных единицах или значительно отличающихся по величине. Манхэттеновская метрика, как правило, применяется для номинальных или качественных переменных.
Расстояния, вычисляемые на основе коэффициента корреляции отражают согласованность колебаний оценок в отличие от метрики Евклида, которая определяет в среднем сходные показатели.
Кластерный анализ (КА)
КА позволяет строить систему классификации исследованных объектов и переменных в виде «дерева» (дендрограммы) или же осуществлять разбиение объектов на заданное число удаленных друг от друга классов.
Методы КА можно расклассифицировать на:
внутренние (признаки классификации равнозначны);
внешние (существует один главный признак, который определяют по остальным).
Внутренние методы можно разделить на:
иерархические (процедура классификации имеет древовидную структуру);
неиерархические.
Иерархические подразделяются на:
агяомеративные (объединяющие);
дивизивные (разъединяющие).
В психологии наиболее распространен иерархический дивизивный метод. Он позволяет строить «дерево» классификации п объектов посредством их иерархического объединения в группы или кластеры на основе заданного критерия — минимума расстояния в пространстве m переменных, описывающих объекты. Кроме того, с его помощью осуществляется раз-
7. ОСНОВНЫЕ ОТРАСЛИ ПСИХОЛОГИИ
биение некоторого множества объектов на естественное число кластеров.
Графическое представление результатов дается в виде «дерева» иерархической кластеризации. По оси X — объекты, подлежащие классификации (на одинаковом расстоянии друг от друга). По оси Y — расстояния, на которых происходит объединение объектов в кластеры. Для определения естественного числа кластеров вводится оценка разбиения на классы, которую вычисляют по величине отношения средних внутрикластерных расстояний к межкластерным (А. Дрынков, Т. Савченко, 1980). Глобальный минимум оценки характеризует естественное число классов, а локальные — под- и надструктуры. Методы иерархического КА различаются по стратегии объединения, т. е. пересчета расстояний. Выделяются стратегии ближайшего соседа. При объединении i-ro и j-ro классов в класс k расстояние между новым классом k и любым другим классом h пересчитывается следующим образом: dhk=l/2dhi+l/2dhj-l/2|dhi-dhj|.
Расстояния между другими классами сохраняются неизменными. Стратегия дальнего соседа:
dhk=l/2dbl+l/2diy+l/2|dlll-cg. Группового среднего:
dhk = (ni/nk) dh. + (nj/nk) dhj,
где ni, nj, nk — число объектов в классах i, j, k.
Первые две стратегии, за исключением последней, изменяют пространство (сужают и растягивают). Поэтому если не удается получить достаточно хорошего разбиения на классы с помощью третьей стратегии (а их необходимо выделить), то используются первые две. При этом первая стратегия объединяет классы по близким границам, а вторая — по дальним.
В социальной психологии при исследовании взаимоотношений в коллективах помимо разбиения на классы необходимо установить также объекты, через которые классы связаны друг с другом. На эти вопросы можно ответить с помощью дендритного КА, который часто применяется совместно с иерархическим [Плюта, 1981]. Главная роль в нем принадлежит дендриту —
ломаной линии, которая не содержит замкнутых ломаных и в то же время соединяет любые два элемента. Предлагается построение дендрита, у которого сумма длин связей минимальна. Сначала к каждому объекту находится ближайший, при этом образуются скопления первого порядка, которые затем также объединяются по величине минимального расстояния до тех пор, пока не будет построен дендрит. Группы объектов считаются вполне отделимыми, если длина дуги между ними dllc > Cp, где СР = сср + S; СсР — средняя длина дуги; S — стандартное отклонение.
Дендриты могут иметь форму розетки, амебообразного следа, цепочки. При совместном использовании иерархического КА и дендрита распределение элементов по классам осуществляется по первому методу, а взаимосвязи между ними анализируются с помощью дендрита.
Многомерное шкалирование (МШ)
Одним из количественных методов изучения психических явлений и процессов, адекватно отражающих их системный характер, признан метод МШ. С его помощью анализируются попарные различия Dy между элементами i и j, в результате чего строится геометрический образ системы. Элементы системы изображаются точками моделирующего пространства, а связям между элементами соответствуют расстояниям dij между i и j. Метод МШ разрабатывался в работах У. Торгерсона, Р. Шепарда, К. Кумбса, Д. Краскала, Ф. Ян-га, В. Крылова и др.
Модели МШ мбжно расклассифицировать по двум основаниям.
По типу данных, полученных в эксперименте:
• прямое субъективное шкалирование (задана одна матрица близостей Dy);
• модель предпочтений (задана матрица близостей Dy и матрица предпочтений);
• модель индивидуального шкалирования (задано несколько матриц близостей). По процедуре реализации метода:
• метрическое шкалирование (расстояния в реконструированном пространстве
7.2. Математическая психология
, полу- Стохастические модели |
y пропорциональны различиям ченным в эксперименте);
• неметрическое шкалирование (данные djj монотонно связаны с расстояниями dy в пространстве Минковского).
Метод Шепарда—Краскала позволяет вычислять показатель стресса, т. е. невязку между исходными и вычисленными различиями между объектами:
S = SQR(SUM{(d..-D..)2}/SUM{D..}2),
где d.. — расстояния между объектами, вычисленные в процедуре МШ; Dy — исходные различия;
• шкалирование в псевдоевклидовом пространстве (не выполняется аксиома неравенства треугольника). В данном случае величина расстояния между объектами определяется по формуле
dy = (SUM Ь (xu - х/)1/2,
где £, принимает значение 1 для евкли-дового пространства и —1 — для псевдо-евклидового. Функция стресса для этих пространств вычисляется и выбирается наименьшая;
• нечеткое шкалирование (данные описаны «нечеткими» психолингвистическими шкалами).
Совместное использование МШ и КА позволяет провести анализ данных, более адекватный, чем дает применение каждого метода в отдельности. При больших выборках необходимо сначала провести КА, а затем с помощью МШ реконструировать пространство всех классов и каждого класса в отдельности (при необходимости). На основании обобщенного опыта было обнаружено, что при КА маленькие классы адекватны данным, часто являясь осмысленными группами, а большие — нет. И наоборот, при МШ небольшие изменения в данных могут стать причиной существенных изменений в локальном взаимном расположении точек. В то же время общее расположение точек внутри конфигурации является содержательным (см. работы Граева, Суппеса).
Вероятностные модели
Модели с латентными переменными
Модели с латентными переменными являются важным классом вероятностных моделей. Они основаны на предположении о том, что наблюдаемые, измеряемые тестами переменные могут быть объяснены с помощью так называемых латентных, более глубинных переменных, которые невозможно измерить непосредственно, однако можно оценить их значение косвенно. К методам латентных переменных относятся конфирматорный и эксплора-торный факторный анализ, регрессионный анализ, однофакторный анализ, методы латентных структур. МакДоналд предложил обобщенную модель латентных структур.
Цель создания моделей с латентными переменными — объяснение наблюдаемых переменных и взаимосвязей между ними с помощью латентных переменных. При заданном значении наблюдаемых переменных требуется сконструировать множество латентных переменных и функцию, которая достаточно хорошо аппроксимировала бы наблюдаемые переменные, а в конечном счете — плотность вероятности наблюдаемой переменной.
В факторном анализе основной акцент делается на моделировании значений наблюдаемых переменных, их корреляциях, ковариациях, а в методах латентно-структурного анализа — на моделировании распределения вероятности наблюдаемых переменных.
Модели факторного анализа (ФА)
Работа Пирсона (1901) — первая, которая была посвящена методу главных компонент. Большой вклад при разработке теста на интеллект внесли К. Спирмен (1927, 1946), Л. Терстон (1947, 1951), а при разработке теории личности — Р. Кеттел (1947, 1951) и Г. Айзенк.
Входные данные, обрабатываемые методом ФА, — это корреляционная или ко-
7. ОСНОВНЫЕ ОТРАСЛИ ПСИХОЛОГИИ
вариационная матрицы. Основная цель методов — выявление интегральных латентных факторов по наблюдаемым переменным, что означает построение для данной корреляционной матрицы К соответствующей матрицы нагрузок А. Матрица А определяется численными методами, при этом количество факторов не должно превышать количество наблюдаемых переменных. То есть соотношения между п наблюдаемыми переменными должны объясняться возможно меньшим числом латентных факторов. Первый принцип, лежащий в основе классической модели ФА, — постулат о линейной независимости между латентными характеристиками; второй — наблюдаемые переменные могут быть представлены как линейная комбинация некоторых латентных факторов. Ряд этих факторов является общим для нескольких переменных, другие — специфические, связанные в основном только с одной переменной.
В 60-е гг, в связи с быстрым развитием методов ФА появилось огромное число различных методов. В дальнейшем проявляется тенденция к обобщениям: возникает нелинейный ФА, построение обобщающей модели с латентными переменными, возникновение и развитие конфирматерного ФА.
Обобщенная математическая модель ФА в матричном виде — это К = AFAT + L2, где А — матрица нагрузок, К — корреляционная матрица, L — матрица ошибок, F — единичная матрица факторов.
Основные этапы ФА: 1) сбор эмпирических данных и подготовка корреляционной (ковариационной) матрицы; 2) выделение первоначальных (ортогональных) факторов; 3) вращение факторной структуры и содержательная интерпретация результатов ФА,
Второй этап — это прежде всего выбор метода ФА. Назовем наиболее используемые из них в психологии.
Метод главныхкомпонент. Его модель имеет вид
К - V = AAJ = VCV:,
где V — матрица собственных векторов, С — диагональная матрица собственных значений.То есть в данном методе поиск
решения идет в направлении вычисления собственных векторов (факторов), а собственные значения характеризуют дисперсию (разброс) по факторам.
Метод главных факторов. Дня определения числа факторов используются различные статистические критерии, при помощи которых проверяется гипотеза о незначительности матрицы корреляционных остатков.
Метод максимального правдоподобия (Д. Лоли), в отличие от предыдущего, основывается не на предварительной оценке общностей, а на априорном определении числа общих факторов и в случае большой выборки позволяет получить статистический критерий значимости полученного факторного решения.
Метод минимальных остатков (Г. Харман) основан на минимизации внедиаго-нальных элементов остаточной корреляционной матрицы; проводится предварительный выбор числа факторов.
Альфа-факторный анализ был разработан специально для изучения психологических данных; выводы носят в основном психометрический, а не статистический характер; минимальное количество общих факторов оценивается по собственным значениям и коэффициентам общности. Факторизация образов, в отличие от классического ФА, предполагает, что обшность каждой переменной определяется как линейная регрессия всех остальных переменных.
Перечисленные методы отличаются по способу поиска решения основного уравнения ФА. Выбор метода требует большого опыта работы. Однако некоторые исследователи используют сразу несколько методов, выделенные же во всех методах факторы считают наиболее устойчивыми.
Третий этап — это «поворот» факторов в пространстве для достижения простой структуры, в которой каждая переменная характеризуется преобладающим влиянием какого-то одного фактора. Выделяются два класса вращения: ортогональное и косоугольное. К ортогональным методам относятся методы «Vary max» (Kaiser, I958) — максимизируется разброс квадратов факторных нагрузок по каждому фактору в отдельности, что приводит к увеличению больших нагрузок и уменьшению — ма-
7.2. Математическаяпсихолог
леньких. «Quartymax» — простая структура; в отличие от предыдущего метода формируется для всех факторов одновременно. В некоторых случаях важнее получить простую структуру, чем сохранить ортогональность факторов. Для достижения этого используются аналогичные методы косоугольного поворота: «Oblymin» и «Oblymax».
Все описанные выше модели ФА относятся к эксплораторному (поисковому) ФА. Настоящим переворотом в ФА было изобретение копфирматорного (подтверждающего) КФА. Основной принцип КФА. в качестве гипотезы формируется структура ожидаемой матрицы факторных нагрузок (весов), которая затем накладывается на заданную корреляционную матрицу. Гипотеза подвергается статистической проверке, и постепенно исследователь приходит к соответствующей экспериментальным данным матрице нагрузок, не прибегая к вращению факторов. Однако гипотеза должна основываться на серьезном анализе природы изучаемых переменных и лежащих в их основе факторов. Часто для этого проводится предварительно эксплораторный ФА. В качестве математического аппарата в данной модели используется моделирование с помощью линейных структурных уравнений.
Данный подход предполагает априорное формулирование гипотез относительно количества латентных и измеряемых переменных, а также их взаимосвязи. Можно выделить следующие этапы:
составляется диаграмма путей, представляющая собой графы, в которых присутствуют измеряемые и латентные переменные, соединенные стрелками (направлены в сторону влияний);
строятся системы уравнений множест-веной регрессии; их количество соответствует количеству зависимых переменных;
проверяется соответствие предложенной модели (системы уравнений) эмпирическим данным;
осуществляется перебор моделей на данных одной выборки.
Метод КФА позволяет оценить валид-ность тестов (конструктную, дискрими-нантную, конвергентную). Использование множества индикаторов для каждого латентного конструкта дает возможность представить степень, с которой каждая переменная объясняет латентную переменную. Остаточная дисперсия обусловлена случайными флуктуациями. С помощью параметров измерительной модели определяется внутренняя согласованность теста, по которой можно говорить об уровне надежности измерения. В программе LISREL надежность измеряемых переменных представляется в виде множественных корреляций этих переменных с латентными конструктами (P. Bentler. 1982, 1992; D. Cole, 1987). Моделирование с помощью латентно-структурных уравнений позволяет также проводить анализ данных лонгитюд-ного исследования с множественными индикаторами (К. Joreskog, 1979, 1988).
Модель латентных классов
Все модели латентных структур предполагают локальную независимость характеристик. То есть для данной латентной характеристики наблюдаемые переменные независимы в смысле теории вероятностей.
В основе модели лежит формула Бэйеса, которая связывает априорную вероятность с апостериорной.
Общая методология сводится к введению в модель (в качестве исходных данных) априорной плотности распределения параметров и последующему нахождению по формуле Бэйеса (с учетом экспериментальных данных) их апостериорной плотности распределения. Априорно задаются две латентные характеристики: количество классов (К) и соответствующее им относительное число испытуемых в классе — P(k), а также параметр, позволяющий устанавливать степень вероятности опреде-леного ответа на i-й вопрос при условии, что испытуемый относится к k-му классу — r(k). Априорное задание этих латентных характеристик соответствует гипотезе исследователя либо задается стандартными способами.
Вероятность появления 1-го профиля
Pi=I(P(k)r,(k).
По формуле Бэйеса вычисляется апостериорная (с учетом реальных профилей
ПСИХОЛОГИИ
ответов испытуемых на вопросы теста) вероятность принадлежности к классу k при условии, что испытуемый имеет i-й паттерн ответов:
Для каждого класса строится наиболее вероятный профиль ответов его представителей.
Данный метод полезен при адаптации существующих новых опросников и их разработке, а также для анализа результатов исследования (J. Rost, 1988; Т. Савченко, 1995). При адаптации опросников метод латентно- структурного анализа (LSA) позволяет выделить вопросы теста, которые не соответствуют предложенной модели и подлежат замене или переформулированию. Метод LSA используется также для проведения типологизации по множественному критерию.
Модели научения
Вероятностные модели представляют самый широкий класс моделей в психологии. Модели такого типа существуют почти во всех ее разделах. Многие модели описаны в соответствующих разделах данного руководства, здесь же приведены отдельные , наиболее характерные примеры.
Так, в моделях научения есть класс вероятностных моделей. Примером общей вероятностной модели процесса научения является модель, имеющая дна подмножества гипотез (К. Chow, J. Cotton, 1983; Ch. Brainerd, 1982). Согласно этим моделям, испытуемый выдвигает гипотезу из одного подмножества; в случае верного решения в следующем испытании гипотеза выдвигается из этого же множества, а в случае неудачи — с вероятностью р происходит выбор одного из двух подмножеств. Однако модели, имеющие три подмножества гипотез, более адекватно отражают процесс идентификации понятий.
В качестве примера автоматной вероятностной модели можно привести разра-ботаннную А. Дрынковым (1985) модель, описывающую кривые научения и представляющую собой автомат-подкрепления со счетным множеством состояний.
Модели принятия решений
Теория принятия решений представляет собой набор понятий и семантических методов, позволяющих всесторонне анализировать проблемы принятия решений в условиях неопределенности.
Можно выделить три основных подхода к построению моделей процесса принятия решения: теорию статистических решений, теорию полезности и теорию игр. Эти теории нашли применение в психологической практике. Теория принятия решений моделирует поведение людей, которые, принимая решение, действуют в соответствии с некоторыми аксиомами. В основе теории принятия решений лежит предположение о том, что выбор альтернатив должен определяться двумя факторами: 1) представлениями лица, принимающего решение о вероятностях различных возможных исходов, которые могут иметь место при выборе того или иного варианта решения; 2) предпочтениями, отдаваемыми различным исходам. Первое — субъективная вероятность, второе — ожидаемая полезность.
Теория полезности
Основы современной теории полезности были заложены А. Крамером и Д. Бернулли (1738), которые предположили, что для многих людей полезность богатства увеличивается с убывающей скоростью по мере его роста. Лишь в 1931 г. философ и математик Ф. Рамсей построил систему аксиом для субъективно ожидаемой полезности. Опираясь на его результаты, Л. Сэ-видж (1964) ввел строгую систему аксиом для субъективно ожидаемой полезности, которая формируется из аксиом предпочтения. Теория предпочтений основывается на отношении нестрогого < «у не предпочтительнее, чем х» или строгого предпочтения < «х предпочтительнее, чем у» (G. Fishburn, 1972). В последних работах чаше используется строгое предпочтение. Функция U называется функцией полезности для отношения предпочтения > на X, если u(x) > u(y) для любых х и у, таких, что х > у.
7.2. Математическая психология
В настоящее время модель Сэвиджа для субъективно ожидаемой полезности получила наибольшее признание среди теорий принятия решений с риском: SEU — Р* U, где SEU — субъективно ожидаемая полезность исхода; U — полезность наступившего исхода; Р* — субъективная вероятность наступившего исхода. Субъективная вероятность — число, выражающее степень возможности данного события (по мнению субъекта).
С. Стивене и Е, Галантер (1957) получили линейную функцию субъективной вероятности с искажениями на концах шкалы. Позже А. Тверски и Д. Канеман (1974) показали, что люди недооценивают низкие вероятности и переоценивают средние и высокие.
В теории максимизации принимаются аксиомы, комбинирующие субъективную вероятность и полезность.
В теории принятия решений оценки вероятностей, полученные на основе суждения одного лица, входят и сумму £р (Е,) = 1, где ej 0 = 1,2, .... п) — полный набор взаимоисключающих событий, и если она не равна единице, то меняются рассматриваемые оценки [Кеепеу, 1974]. Для оценки распределения вероятностей величин, имеющих большое количество значений, берется несколько точек функции распределения этой величины и находится кривая, оптимально проходящая через эти точки.
Если необходимо использовать уже имеющиеся данные совместно с экспертными оценками, то теорема Бэйеса дает возможность уточнить вероятностные оценки с учетом полученной дополнительной информации. Для дискретного случая теорема имеет вид
P(E|S) = P<S|E) P(E)/ZP(S|E) P(E),
где S — данные, P(E/S) — вероятность события Е при данном S, a P(S|E) — вероятность S при данном Е. Функции Р(Е) и P(E|S) означают соответственно априорную и апостериорную вероятности для дискретного случая.
Достаточно широкий диапазон суждений можно выразить посредством функций одного класса. Функции внутри клас-
са можно изменять, используя теорему Бэйеса.
Существует четыре важных этапа процесса принятия решений: 1) определение альтернативных способов действия; 2) описание вероятностей возможных исходов; 3) ранжирование предпочтений возможных исходов через их полезность; 4) рациональный синтез информации, полученной на первых трех этапах.
Теория игр
Теория игр является «теорией математических моделей принятия оптимальных решений в условиях конфликта» (Ю. Гер-мейер, 1972). Она используется для моделирования поведения в конфликтной ситуации. Под конфликтом понимается явление, применительно к которому можно указать, какие стороны и как в нем участвуют, какие возможны исходы, кто и как в них заинтересован. Понятие игры в теории игр аналогично понятию конфликта в психологии.
Понятие оптимальности поведения сторон представляет наиболее важный элемент теоретико-игрового подхода к изучению конфликтов, так как выбор принципа оптимальности фактически равнозначен формализации представлений исследователя о модели принятия решений в подобных ситуациях. Одним из наиболее распространенных является принцип максимально гарантированного результата, заключающийся и том, что сторона, принимающая решения, всегда выбирает действие, дающее максимально гарантированный эффект независимо от действий других участников конфликта. Родоначальником теории игр является Дж.фон Нейман. В России — это Ю. Гер-мейер, Г. Поспелов. Теория игр, так же как и теория принятия решений, — самостоятельное направление в исследованиях операций; она используется во многих науках в качестве аппарата моделирования и аппарата представления. Различаются игры: позиционные и в нормальной форме; антагонистические и с непротивоположными интересами; двух лиц и п лиц. Игра считается полностью заданной, если из-
7. ОСНОВНЫЕ ОТРАСЛИ ПСИХОЛОГИИ
вестно количество участников, их стратегии и матрицы возможных исходов. В конечной игре существуют гарантированные стратегии, обеспечивающие участнику выигрыш, не меньший, чем гарантированный.
Л. Сэвилж ввел понятие риска. Он работал с матрицей риска, дополняющей матрицу полезности. Иначе говоря, выбирается действие, приводящее к минимизации максимально возможного риска.
Ю. Гермейер ввел аналогичный критерий для игр с непротивоположными интересами. Модели, разработанные на основе теории игр, дают хороший прогноз, однако при моделировании вводится достаточно много ограничений, а также не учитываются личностные характеристики участников, поэтому, несмотря на усовершенствование математической теории игр, она обладает существенными ограничениями. В связи с этим актуальной задачей математической психологии в данном направлении можно считать создание формальных математических моделей поведения человека в зависимости от его субъективного опыта, личностных характеристик и мотивации (Т.Савченко, 1990). Важным приложением аппарата теории игр является его использование в экспериментальной психологии в качестве экспериментальной методики изучения поведения в ситуации с непротивоположными интересами (А. Раппопорт, К. Терхьн, М. Пилмак, А.Лебедев. Т. Савченко).
Динамическое программирование
Модели целенаправленного поведения
Рассмотрим одну из моделей психомоторного акта, которая описывает решения и действия. Г.В.Кореневым (1989) предложена схема выработки решения и приведения его в действие. Решение человека реализуется в выполнении движения, результатом которого является достижение конечной цели. Модель — это идентифицирование обстановки, сопоставление ее с определенным психомоторным актом и принятие решения о выполнении движения, которое обеспечивает предвидимое
будущее. Принятое решение реализуется через команды, приводящие в действие мышечный аппарат и формирование акцептора результатов действия для сравнения настоящего с предвидимым будущим. Модель психомоторного акта связывает с каждым классом обстановки свою программу движения, выражающего волю человека. В качестве базисной модели используется система дифференциальных уравнений классической динамики, которую пополняют программные и корректирующие силы. Влияние обстановки задается классификационными уравнениями. Решение систем уравнений достаточно сложно — система обладает большим числом степеней свободы.
Модели научения
Самые первые модели, примененные для описания процесса научения, представляли кривую научения как зависимость качества решения задачи от количества повторений (Р. Аткинсон, Г. Бауэр, 1969; Р Буш, Ф. Мостеллер, 1962). Теория Торндайка трактует процесс научения как дифференциальное подкрепление существующих связей между раздражителями и ответами. Для К. Халла научение состоит в образовании связей, которые понимаются как устойчивые состояния. Для моделирования состояния были применены конечные автоматы. Под воздействием стимула подкрепления происходит смена состояний, определяющих связи между раздражителями и ответами. Для описания такой структуры использовались автоматы подкрепления, являющиеся частным случаем автоматов состояния. Эти автоматы могут моделировать процесс научения.
Многие исследователи для описания процесса научения обращаются к понятию выдвижения гипотез. Эти модели сходны с моделями, основанными на автоматах подкреплений. Термины «множество состояний» и «множество гипотез» эквивалентны. Для описания процесса перехода из состояния в состояние или смены гипотез часто применяется аппарат цепей Маркова. Существенным недостатком моделей этого класса является то, что они
7.2. Математическая психология
не отражают структуру связей между ситуациями и реакциями на них в процессе научения, не описывают процессов формирования и модификации гипотез.
Модели интеллекта
Теоретики искусственного интеллекта (ИИ) дают рахтичные определения этого понятия, соответственно которым в исследованиях выделяются две осноиные цели. Первая — создание программ для автоматизации интеллектуальной человеческой деятельности (П. Уинстон). Вторая, связанная с исследованиями в психологии, — использование программ ИИ для объяснения процессов, протекающих у человека при решении тех или иных задач (Н. Ниль-сон, Т. Фейген).
Э. Хант (1978) под содержанием понятия «искусственный интеллект» понимает: игры, распознавание образов, решение задач, адаптивное программирование, принятие решений, обработку данных на естественном языке и т.д. Многие концепции ИИ, несомненно, повлияли на развитие психологической науки.
При моделировании интеллекта в психологии можно выделить следующие подходы: аппарат распознавания образов, который основан на процедуре Бэйеса, классическом статистическом подходе и новых математических теориях, таких, как размытые множества и синергетика.
Современные исследования в этой области начались к Институте Карнеги с написания программ, решающих задачи. Основной интерес представляло то, как люди решают задачи (А, Ньюэлл, Г. Саймон, 1972). В работах многих других исследователей ИИ рассматривается скорее как расширение математики, а не как дисциплина математической психологии (Дж. Мак-Карти, М. Минский, 1961). Другое направление ИИ — это распознавание образов, которое начиналось с машинных программ классификации. В дальнейшем О. Селфридж (1959) предложил осуществлять распознавание образов, вычисляя «взвешенную» сумму ряда классификаций. К. проблеме распознавания можно «подходить», анализируя аналогии, которые
прослеживаются в биологических процессах. Мак-Каллок и Питте (1943) доказали, что любую функцию можно реализовывать с помощью должным образом организованной сети идеальных нейронов. Логическим продолжением нейрологических теорий явилось понятие перцептрона.
Перцептронные модели
Перцептрон возник как система, предназначенная для решения задач распознавания образов (М. Минский, С. Пейперс, 1971). Идея создания перцептрона принадлежит Ф. Розенблатту (1965). Изучением данного типа моделей занималось много исследователей (Ф. Розенблатт, 1965; С. Пейперс, М. Минский, 1970; О. Селфридж, Н.Нельсон, 1969; В.Якубович, 1966). Наибольшее эмпирическое подкрепление эти модели получают в психофизиологии, например — рефлекторная дуга Е.Соколова (1981). Одной из наиболее известных моделей, основанных на понятии перцептрона, является система «Пандемониум», предложенная О. Селфериджем (1974). Модели данного класса позволили выделить типы научения, Перцептронные модели поведенчески эквивалентны автоматным моделям, но дают возможность представить механизм связи и ее модификации при научении между ситуациями и ответными реакциями.
Моделирование естественного языка
В. В. Налимов разработал вероятностную модель языка с помощью моделирования смысла слов. С каждым словом вероятностным образом связывается множество смыслов. Смысловые значения служат функцией распределения для индивида или однородной группы. В результате формируется модель понимания индивидом некоторого текста. В этих моделях используется традиционный аппарат теории вероятностей (Налимов, 1971).
В области ИИ на рубеже тысячелетия так же, как и во многих других науках, происходит смена парадигм.
В 90-х гг. определились новые парадигмы в ИИ.
7, ОСНОВНЫЕ ОТРАСЛИ ПСИХОЛОГИИ
Первая — создание теории однородных сред, элементами которых являются устройства, подобные нейронам. Вторая — компьютерная графика, помогающая решать задачи с помощью актуализации образного мышления, Когнитивная интерактивная компьютерная графика является средством воздействия на право пол у шар ное мышление человека в процессе научного творчества. Третья — специалисты различных направлений в области ИИ считают важным развитие работ, касающихся представлений знаний и манипулирования ими (экспертные системы).
Нетрадиционные методы моделирования
Моделирование на «размытых» множествах
Нетрадиционный подход к моделированию связан с приписыванием элементу некоторой числовой оценки, которая не может объясняться объективной или субъективной вероятностью, а трактуется как степень принадлежности элемента к тому или иному множеству. Множество таких элементов называется «нечетким», или «размытым» множеством.
Каждое слово х естественного языка можно рассматривать как сжатое описание нечеткого подмножества М(х) полного множества области рассуждений U, где М(х) есть значение х. В этом смысле весь язык как целое рассматривается в качестве системы, в соответствии с которой нечетким подмножествам множества U приписываются элементарные или составные символы (т. е. слова, группы слов и предложения). Так, цвет объекта как некоторую переменную, значения этой переменной (красный, синий, желтый, зеленый и т. л.) можно интерпретировать как символы нечетких подмножеств полного множества всех объектов. В этом смысле цвет является нечеткой переменной, т. е. переменной, значениями которой являются символы нечетких множеств. Если значения переменных — это предложения в некотором специальном языке, то в данном случае соответствующие переменные называются лингвистическими (Л. Заде, Ю. Шрейдер).
Синергетика » психологии
Еще одна альтернатива традиционному математическому аппарату — синергети-ческий подход, в котором математическая идеализация проявляется чувствительностью к начальным условиям и непредсказуемостью исхода для системы. Поведение можно описать с помощью апериодических и поэтому непредсказуемых временных рядов, не ограничиваясь при моделировании стохастическими процессами. Беспорядок в обществе может предшествовать появлению новой структуры, в то время как стохастические системы имеют низкую вероятность порождения интересных структур. Именно апериодические решения детерминированных уравнений, описывающих самоорганизующиеся структуры, помогут прийти к пониманию психологических механизмов самоорганизации (Фриман, 1992). В этих работах разум рассматривается как «странный аттрактор», управляемый уравнением сознания. Математически «странный аттрактор» — это множество точек, к которому приближается траектория после затухания переходных процессов.
В основе большинства традиционных моделей психотерапии лежит концепция равновесия. Согласно синергетическому подходу, разум является нелинейной системой, которая при далеких от равновесия условиях превращается в части сложных аттракторов, а равновесие — лишь предельный случай. Этот тезис развивают теоретики психотерапии, выбирая тот или инойаспект теории хаоса. Так, например, выделяется феномен хаотического в психофизиологической саморегуляции (Stephen, Franes, 1992) и обнаруживаются аттракторы в паттернах семейного взаимодействия (L. Chamber, 1991).
Рекомендуемая литератур»
Анастаэи А. Психологическое тестирование. М.: Педагогика, 1992.
Берна К. Измерения: понятия, теории, проблемы. М.: Прогресс, 1987.
Благуш П. Факторный анализ в обобщении. М.: Финансовая статистика, 1939.
Будущее искусственного интеллекта. М,: Наука,
1991.
7.3. Медицинская психология
Головина Г.М., Крылов В.Ю., Савченко Т.Н. Математические методы в современной психологии: статус, разработка, применение. М.: ИП РАН, 1995.
Девидсон М. Многомерное шкалирование. М.: Финансы и статистика, 1987.
Исследование операций/Под ред. Дж. Моудер. М., 1981.
Классификация и кластер. М.: Мир, 1980.
Кочетков В.В., Скотникова И.Г. Индивидуально-психологические проблемы принятия решения. М.: Наука, 1993.
Крылов В.Ю. Геометрическое представление данных в психологических исследованиях. М.: Наука, 1980.
Крылов В.Ю., Казанцев А.Ю. Модель рефлексивного поведения В.А.Лефевра: частные случаи, варианты аксиоматики, возможные обобщения. М., 1995.
Лефевр В.А. Формула человека. М.: Прогресс, 1991.
Лоули Д., Максвелл А. Факторный анализ как статистический метод. М.: Мир, 1967.
Льюс Р., Райфа X. Игры и решения. М., 1961.
Математические методы в исследованиях индивидуальной и групповой деятельности/Под, ред. В.Ю. Крылова. М.: ИП АН СССР, 1989.
Нейман Дж. фон, Моргенштерн О. Теория игр и экономическое поведение. М., 1970.
Нормативные и дескриптивные модели принятия решений. М.:Наука, 1981.
Плюта В. Сравнительный многомерный анализ в экономическом моделировании. М.: Статитика, 1981.
Шошин П.Б. Психологические измерения/Под ред. М.Б. Михалевской. М.: МГУ, 1989. Ч. I.
Статистические методы для ЭВМ/Под ред. К. Эн-слейна, Э. Рэстона, Г.С. Уилфа. М.: Наука, 1976.
Терехина А.Ю. Анализ данных методами многомерного шкалирования. М.: Наука, 1986.
Тюрин Ю.Н., Макаров А.А. Анализ данных на компьютере. М.: Финансы и статистика, 1995.
Хант Э. Искусственный интеллект. М.: Мир, 1978.
British Journal of Mathematical and Statistical Psychology/British Psychol. Soc. 1988. № 41.
Handbook of mathematical psychology. N.Y.: John Willey and Sons, Inc., 1963.
Handbook of mathematical psychology. N.Y., 1973. Journal of Mathematical Psychology. 1991. V. 35. Psyhometrika. 1993. V. 3. Psychological Science. 1992. № 2
Медицинская психология
Введение
Современная медицина и психология — это системы медицинских и психологических наук, имеющие один и тот же объект изучения и практического приложения добываемых знаний — человека. Их взаимодействие порождает большой круг медико-психологических проблем. Основное положение медицины о том, что врач должен лечить не болезнь, а больного, требует знания не только биологических и физиологических особенностей организма человека, но и его психики. Единство клинического и психологического подходов в лечебной практике характеризовало всех выдающихся медиков, многие из которых стали основателями целых направлений в психологии (3. Фрейд, В.Н. Бехтерев, В.Н. Мясищев и др.).