Глава 2. МЕТРИЧЕСКОЕ И НЕМЕТРИЧЕСКОЕ
МНОГОМЕРНОЕ ШКАЛИРОВАНИЕ
В отличие от всех ранее разработанных методов анализа многомерных наблюдений, таких как факторный анализ, кластер-анализ и т.д., обсуждавшихся подробно в отечественной психофизической литературе, модель многомерного шкалирования (МШ) известна значительно меньше. Это обстоятельство требует детального изложения общих принципов МШ и тех вычислительных алгоритмов, которые будут использованы в учебных заданиях.
§ 1. Основные положения
В основе модели МШ лежит целый ряд предположений о структуре процессов различения объектов-стимулов. Физически каждый объект-стимул характеризуется множеством признаков, например, “объем”, “форма”, “пространственное положение”, “высота”, “длина” и т.п. Сами признаки могут быть простыми и сложными, многомерными. Например, “высота” и “длина” — одномерные признаки, а “форма” и “положение” — многомерные. Отдельный одномерный признак может служить какой-либо одной размерностью более сложного признака. Так, “высота” геометрической фигуры есть одна из размерностей признака “форма”. Каждый стимул характеризуется определенными значениями или степенью выраженности признака.
Точно так же, как стимул характеризуется набором некоторых физических признаков, перцептивный образ стимула (иногда говорят просто — образ) можно характеризовать набором субъективных признаков. Психофизикам известно, что такому, например, физическому признаку стимула, как интенсивность светового излучения, субъективно соответствует яркость; такому, как вес — тяжесть и т.п. Субъективные признаки, также как и физические, могут быть простыми (одномерными) и сложными (многомерными). Однако физическая размерность стимула и субъективная размерность образа в общем случае не совпадают. МШ основывается на положении, что различение стимулов определяется расхождением по ограниченному числу простых субъективных признаков, которые явно или неявно учитываются при суждениях о различии или сходстве стимулов. Исходя из этого положения и ставится главная задача многомерного шкалирования — найти минимальное число субъективных признаков, определяющих различение стимулов человеком, и вычислить значение признаков, которыми характеризуются данные стимулы.
Такая постановка задачи — выявление системы базисных субъективных признаков стимула независимо от их физических коррелятов — позволяет подойти по-новому и к решению основной психофизической задачи — построению функции, связывающей субъективную шкалу стимулов. В отличие от традиционного подхода, когда для заданного физического признака стимулов строится соответствующая субъективная шкала и определяется связывающая их психофизическая функция, МШ дает возможность для заданного субъективного признака стимула определять его физический коррелят, т.е. брать за основу не физическую, а психологическую характеристику стимула. Такой подход к построению психофизической функции может быть полезным для случаев, когда один субъективный признак определяется системой нескольких физических признаков, или когда изменение одного физического признака ведет к изменению сразу нескольких субъективных признаков.
Решение задачи МШ основано на использовании понятия психологического пространства, точки которого представляют исходные стимулы. Аналогично геометрическим представлениям вводится система координат, число которых определяется числом простых субъективных признаков. Это число задает размерность психологического пространства. Оси координат представляют собой шкалы соответствующих субъективных признаков, и положение точек-стимулов в пространстве задано шкальными значениями признаков. Число субъективных шкал и шкальные значения стимулов характеризуют пространственную модель МШ.
Следующее положение, которое также лежит в основании МШ, касается суждений о сходстве или различии между стимулами. Эти суждения предполагаются связанными с положением точек-стимулов в пространстве, поскольку чем более сходны между собой стимулы, тем ближе друг к другу в пространстве представляющие их точки, и наоборот, увеличение воспринимаемого различия между стимулами означает большее пространственное разделение соответствующих точек.
Иначе говоря, предполагается, что расстояние между точками в пространстве есть некоторая функция от субъективного сходства или различия. Метрическая задача МШ заключается в том, чтобы через получаемые суждения о сходстве или различии между стимулами определить расстояния между точками. Решение задачи состоит в построении модели субъективного расстояния в психологическом пространстве.
Формально общая задача МШ выражается следующим образом. По заданной симметричной матрице различий между стимулами
(1)
нужно построить метрическую и пространственную модели стимулов, т.е. определить размерность пространства и координаты точек-стимулов в этом пространстве
(2)
таким образом, чтобы матрица расстояний, вычисленных между точками на основании метрической модели расстояния
(3)
была бы в смысле некоторого критерия возможно более близка к исходной матрице различий D (Терехина, 1986).
В МШ существуют два подхода к решению общей задачи — метрический и неметрический. В метрическом МШ на первом этапе строится модель субъективного расстояния. Исходные оценки сходств или различий преобразуются таким образом, чтобы числовые значения удовлетворяли аксиомам геометрического расстояния. На втором этапе по матрице абсолютных расстояний рассчитываются координаты точек и определяется размерность пространства. Для неметрического шкалирования существенными являются не абсолютные числовые значения оценок сходства, а только их порядок. Пространственная модель строится прямо по исходным данным о сходствах или различиях, при этом предполагается, что исходные оценки и межточечные расстояния связаны некоторой неизвестной и монотонной зависимостью, т.е. порядок межточечных расстояний должен соответствовать порядку исходных оценок.
Очевидно, что если исходные данные представлены в виде действительной симметричной матрицы порядка n с элементами не равными нулю, то всегда можно получить конфигурацию точек в пространстве размерности (n-1), удовлетворяющую этому условию. Однако если учитывать главную задачу МШ — определение минимальной размерности пространства, то задача построения пространственной модели сразу становится нетривиальной. Это наглядно иллюстрируется теоремой Гуттмана, которая гласит, что элементы действительной симметричной матрицы порядка n могут быть строго монотонны с расстояниями между n точками в действительном евклидовом пространстве размерностью не более, чем (n-2), только в том случае, если элементы матрицы не равны нулю и не совпадают друг с другом.
Иначе говоря, возможность уменьшения размерности при условии сохранения монотонности связана с дополнительными ограничениями, которым должно удовлетворять искомое решение. Последнее, в свою очередь, означает, что исходные данные должны обладать значительной избыточностью, по сравнению с искомым решением. В каком случае это возможно? Конфигурация точек в пространстве определяется nr степенями свободы (где n — число точек-стимулов, r — размерность пространства). Исходная матрица различий имеет c2степеней свободы. Следовательно, избыточность исходных данных будет зависеть от того, насколько число стимулов n больше, чем размерность r. Чем больше число стимулов по сравнению с размерностью, тем больше избыточность исходной матрицы и тем более определенной оказывается пространственная и метрическая структура данных, вплоть до нахождения единственного решения, если, конечно, такое решение возможно в принципе. Шепард (1966) показал, что при размерности 2 или 3 для метрического решения практически достаточно 10—15 точек-стимулов.
Таким образом, два неметрических условия, на которые ориентируется решение — монотонности и минимальной размерности — могут дать полную метрическую информацию об исходных данных.
Рассмотрим вкратце принципы достижения монотонности и понижения размерности, которые лежат в основе неметрических алгоритмов.
Достижение монотонности. Условие монотонности означает, что порядок межточечных расстояний dijдолжен соответствовать порядку межстимульных различий Dij. Для того, чтобы сделать возможным последовательное сравнение двух порядков, различия и расстояния ранжируются в два отдельных ряда от нуля (минимальная величина) до 1 (максимальная величина). Достижение монотонности есть приведение к нулю всех проранжированных разностей (Dij- dij), т.е.:
(4)
Положительное значение (Dij- dij) означает, что порядок расстояния меньше порядка различия, а отрицательное — что больше. Если данная конфигурация точек (полученная каким-либо произвольным способом) не удовлетворяет условию (4), то конфигурация меняется путем сжатия расстояний с большим рангом и растяжения расстояний с меньшим рангом, чем соответствующий ранг различия. С этой целью для каждой i-й точки по линии, соединяющей ее с j-ой точкой, формируется вектор. Направление вектора определяется знаком разности (Dij- dij).
Если ранг различия больше ранга расстояния, то вектор направлен от точки i к точке j, а при отрицательной разности вектор направлен обратным образом. Длина вектора зависит от величины различия (Dij- dij). Для каждой точки i формируется (n-1) подобных векторов. Их общее действие можно представить как действие (n-1)-мерного вектора, приложенного к данной точке i. Перемещение всех точек таким образом приводит к новой конфигурации. Понятно, что новая конфигурация не сразу же после первого шага будет удовлетворять условию монотонности, поскольку каждая точка сдвигается по компромиссному направлению. Процедура достижения монотонности носит итеративный характер и может состоять из значительного числа шагов (Шепард, 1962).
§ 2. Исходные данные. Матрица сходств и различий
Для МШ существенным является определенная организация исходного экспериментального материала в так называемую матрицу сходств. Элементом матрицы (Sij) является некоторая мера сходства между парой стимулов i и j или обратная ей величина Dij— мера различия.
Оценки различий можно получить от испытуемого разными методами. В каждом случае выбор метода шкалирования различий зависит от конкретных экспериментальных условий. Но существует разделение этих методов на два больших класса, которое зависит только от того, какая модель МШ используется для анализа матрицы различий — метрическая или неметрическая.
Условия, налагаемые на элементы матрицы различий в метрическом МШ, строго соответствуют аксиомам расстояния в геометрическом пространстве:
1. Рефлексивность различия:
Dij= 0 (5)
подразумевает, что различие между двумя идентичными стимулами (диагональные элементы матрицы различий) должно равняться нулю.
2. Симметричность различий:
Dij = Dji (6)
означает, что оценка различия не должна зависеть от временных и пространственных перестановок стимулов относительно друг друга при оценивании (элементы матрицы различий, симметричные относительно главной диагонали).
3. Аксиома треугольника:
Dij+ Djk³ Dik (7)
требует, чтобы суммарное различие между любыми двумя парами из трех данных стимулов было не меньше, чем различие между оставшейся парой стимулов.
В терминах теории измерений это означает, что субъективные оценки различий должны представлять собой величины на шкале отношений. Только в этом случае их можно рассматривать непосредственно как расстояния между точками в психологическом пространстве или субъективные расстояния.
Методы для шкалирования психологического расстояния между сложными стимулами в большей части прямо аналогичны методам одномерного шкалирования. Большинство методов вполне могут быть расширены до шкалирования многомерных различий. Однако в каждом случае от испытуемого требуется более сложное суждение. Прямое расширение моделей требует некоторой модификации (Торгерсон, 1958). Эти изменения определяются, во-первых, усложнением стимулов, и, во-вторых, сменой содержания оценочных суждений. В одномерном случае оценка представляет величину стимула на шкале, тогда как в МШ оценивается психологическое расстояние между парами стимулов. Если в ситуации одномерного шкалирования шкала отношений или интервалов строилась для самих оценок стимулов, то теперь эти шкалы строятся для межстимульных различий.
Несколько более слабые ограничения налагает на элементы матрицы различий модель неметрического МШ. В общем случае достаточно, чтобы оценки различий удовлетворяли отношениям, установленным для шкалы порядка. Методы порядкового шкалирования основываются на ясных и простых принципах, которые легко реализуются в большинстве экспериментальных ситуаций.
Например, испытуемому могут быть предъявлены все пары стимулов одновременно и он должен упорядочить их по степени сходства. Иногда порядок различия оценивается в баллах.
В некоторых случаях информацию о сходствах можно получить из данных о смешении стимулов. Информацию о смешениях можно получить на основе идентификации испытуемым предъявляемых стимулов. Тогда в клетку ij матрицы заносится число, равное числу случаев, когда испытуемый идентифицировал стимул i как j. Частота случаев идентификации стимула i как j может служить мерой их сходства. Испытуемому можно предложить упорядочить все стимулы в один ряд. Такое упорядочивание производится по отношению к каждому стимулу. Сходство двух стимулов оценивается по частоте их попадания в соседние участки ряда.
Пристального внимания заслуживает вариант, в котором предлагается упростить работу испытуемого, заменив задачу оценивания попарных различий более простой задачей классификации стимулов. Пусть имеется множество многомерных стимулов (цвета, шрифты, вкусовые качества пищевых продуктов, геометрические фигуры и т.п.). Для данного множества стимулов <N> выбирается произвольный набор классов <k> (категорий, наименований) так, чтобы каждый стимул всегда можно было бы отнести по крайней мере к какому-нибудь одному классу. Набор классов должен исчерпывать классификацию стимулов. Например, для множества вкусовых качеств пищевых продуктов можно предложить набор из четырех основных классов (кислый, сладкий, горький, соленый). Классификация заключается в отнесении каждого данного стимула к одному или нескольким классам. Причем, если стимул относится к одному классу, например, “кислый” для вкуса, то класс заполняется полным весом стимула, или единицей, если же стимул относится сразу к двум классам, например, “кисло-сладкий”, то каждому классу приписывается по половине веса стимула. Если имеет значение место класса в названии, то тому классу, который ставится на первое место, надо приписывать больше веса. Процедура распределения весов стимулов при классификации может быть самой различной, необходимо лишь, чтобы сохранялось порядковое соответствие между распределением весов по классам и предпочтением при классификации стимулов.
В результате классификации стимулов по данному набору классов строится матрица Eij, в которой строка определяется номером стимула Si- Sn, а столбец указывает класс (Ai+ Aj). Элементом матрицы Eijявляется число, показывающее вес стимула Siпо классу Aj, просуммированный по числу предъявлений. Каждая строка матрицы представляет собой вектор , компонентами которого служат элементы строки . Все строки образуют векторное пространство реакций размерности k (по числу классов). В этом пространстве вводится некоторая мера различия между векторами, и тогда попарные различия всех векторов дадут матрицу субъективных различий между стимулами. Полученная таким образом матрица различий вводит данные в систему МШ.
Такая процедура успешно применялась Шепардом и Кэрролом (1966) и Измайловым (1979) к данным называния цветов Бойтона и Гордона (1965) для построения пространства цветоразличения.
§ 3. Построение пространственной модели стимулов
Как уже было сказано, построение психологического пространства предполагает решение двух самостоятельных задач: определения минимального числа осей, необходимых и достаточных для описания структуры межстимульных различий, и вычисления числовых значений, определяющих положение каждого стимула относительно базисных осей координат.
1. Определение базисной размерности.
Определение достаточного числа измерений основано на выборе некоторого критерия, по которому оценивается расхождение между исходной матрицей данных и вычисленными межточечными расстояниями. В идеальном случае это расхождение должно равняться нулю, но в эмпирических данных всегда присутствуют случайные ошибки — шум, величина которого чаще всего неизвестна, поэтому на практике критерий выбирается не нулевой, но достаточно небольшой.
Например, Торгерсон (1958) предлагает следующий метод для определения минимальной размерности. Вычисляется центрированная матрица скалярных произведений между стимулами. Характеристические корни этой матрицы упорядочиваются по величине. Размерность определяется по числу собственных векторов, соответствующих наибольшим характеристическим корням, так, чтобы разброс полученных координат вносил достаточно большой вклад в дисперсию (75—96%). Остальная часть дисперсии рассматривается как следствие случайных ошибок.
Метод определения минимального числа измерений в ходе построения пространственной модели впервые был предложен Шепардом (1962). Он основан на общем принципе понижения размерности, который представляет собой растяжение больших и сжатие маленьких расстояний. Действительно, чтобы поместить, например, треугольник в одномерном пространстве, не нарушая условия монотонности, необходимо сжать его меньшие стороны и растянуть большую. Процедура понижения размерности, так же как и достижение монотонности, основана на формировании множества векторов для каждой точки i, которые должны сжимать маленькие расстояния и растягивать большие. Критерием разделения расстояний на маленькие и большие служит среднее арифметическое расстояний. Поскольку процедура понижения размерности ориентирована на выполнение условия полной монотонности по отношению к различиям, то вместо рангов расстояний, которые на данном шаге итерации не обязательно удовлетворяют условию монотонности, лучше брать ранг самих различий. Тогда вектор, формирующийся для точки i по отношению к точке j, будет определять направление вектора (от точки i к точке j или наоборот), а величина разности (Dij-D) будет определять длину вектора. Сформированные таким образом (n-1) векторы для данной точки i также рассматриваются как действующие аналогично (n-1)-мерному вектору. Как и в ходе достижения монотонности, на каждом шаге итерации меняется положение всех n точек.
При использовании подобных формальных критериев полезно учитывать, что качество аппроксимации исходных данных построенным пространством тем выше, чем больше выбранное число измерений (Спенс, 1972). При увеличении размерности величина ошибки монотонно убывает (рис. 1), поэтому предпочтительнее такое число осей r, при котором эта функция становится достаточно пологой.
Рис. 1. Примерный вид функции, связывающей величину ошибки с числом измерений пространства
Формальные критерии определения размерности имеют довольно приблизительную ценность, поскольку в каждом случае выбор критерия оказывается достаточно произвольным. Более важными являются другие критерии, которые основаны на хорошей содержательной интерпретации полученного решения. Содержательная интерпретация есть конечный результат производимого анализа, и в любом случае именно она определяет и значимость построенного пространства, и правильность выбора размерности.
Поэтому некоторые авторы (Крускал, 1964) предлагают производить отображения отдельно в одно-, двух-, трех- и т.д. -мерные пространства, строить там оптимальные конфигурации точек и затем выбрать из них такую, которая с точки зрения содержательной интерпретации даст наилучшее решение. Для хорошей интерпретации существенно правильное направление осей координат. В некоторых случаях (Виш и Кэррол, 1974) направление осей координат выбирается в ходе самого алгоритма построения пространственной модели, но в большинстве алгоритмов МШ оси координат имеют произвольное направление, поэтому для облегчения содержательной интерпретации используют вращение пространства с тем, чтобы получить оси, связанные с определенными группами стимулов. Аналогичным вспомогательным средством является и метод приведения к главным осям (Терехина, 1974).
Обычно только небольшое число осей получает удовлетворительную интерпретацию, остальные измерения чаще всего являются следствием экспериментального шума. Некоторые измерения могут быть связаны с отдельным подмножеством стимулов, или с данным типом испытуемых, поэтому большой разброс, полученный по данной размерности, еще не означает ее общей важности. Из этого следует очень важный вывод, что окончательное решение не может быть основано на результатах отдельных экспериментов, а необходимо исследование независимых групп данных с привлечением различных методов МШ.
2. Вычисление координат.
К настоящему времени для вычисления координат точек в психологическом пространстве различными авторами разработано большое количество разнообразных алгоритмов. В данной работе рассматриваются только три из них, которые непосредственно использовались для анализа экспериментальных данных.
Метод ортогональных проекций. Одним из наиболее простых метрических методов МШ является метод ортогональных проекций (Орлочи, 1967; Соколов и др., 1975). Суть его заключается в следующем.
Если есть множество точек, заданных расстояниями между ними, то мы можем максимальное из этих расстояний принять за первую ось (Х1). Точки, заданные этим максимальным расстоянием, обозначим как 1 и 2, затем точку 1 на этой оси примем за начало оси Х1и спроектируем ортогонально все остальные точки на ось Х1. Тогда точка 1 имеет координату Х11= 0, а точка 2 — координату Х12= d12.
Величина проекции для каждой точки i (кроме первых двух точек) вычисляется по известной геометрической формуле:
(7)
Далее легко вычисляются расстояния от каждой точки до оси Х1по формуле:
(8)
Если все hi=0, то очевидно, что все точки лежат на оси Х1, т.е. пространство данных точек одномерно. Если некоторые hi>0, то из них выбирается максимальное (hmax) и принимается за ось Х2, то есть hmax=Х23, а точка пересечения hmaxс осью Х1есть начало оси Х2(рис.2).
Затем все остальные точки ортогонально проецируются на ось Х2и величина проекции вычисляется по формулам:
(9)
где (10)
Объединив эти формулы, получим:
(11)
Расстояние от каждой точки до плоскости Х1Х2определится теперь как
(12)
И в этом случае, если все qi=0, то, следовательно, все точки лежат на плоскости Х1Х2 и выделение следующей оси пространства не имеет смысла.
Далее, если qi отличны он нуля, то выбирается точка с максимальным значением — qmaxи принимается за четвертую точку, и тогда через эту точку 4 будет проходить ось Х3. Далее вычисляются проекции всех остальных точек на эту ось:
(13)
Точка, наиболее удаленная от гиперплоскости в пространстве размерности r, ищется из условия:
(14)
Процедура продолжается до тех пор, пока сумма всех проекций на k-ю ось не окажется меньше некоторого наперед заданного критерия. Например, эффективность решения можно определять отношением:
(15)
Обычно ограничиваются таким количеством осей, которое дает разброс, исчерпывающий до 70-90% дисперсии.
Число полученных осей рассматривается как минимальная размерность субъективного пространства, необходимая, чтобы удовлетворялась совместимость всех межточечных расстояний. Простота этого метода делает его удобным для применения к данным, структура которых имеет линейный характер. Однако получающаяся картина существенно зависит от первоначально взятых расстояний, т.е. решение оказывается зависимым от зашумленности исходных данных. Необходимо также отметить, что результирующее пространство определяется всего по нескольким точкам, и поэтому отдельные изолированные точки могут полностью определить решение задачи (Аустин, Орлочи, 1966). Очевидно, что метод, в котором пространство определяется разбросом всех точек, будет иметь более общий характер. Именно такой метод был предложен Торгерсоном (1952, 1958).
Метод Торгерсона. Метод метрического МШ, описанный в работах Торгерсона (1952, 1958), свободен от большинства недостатков метода ортогональных проекций и дает решение, независимое от начального этапа вычислений. Он основан на процедурах аппроксимации исходной матрицы матрицей меньшего ранга (Янг, Хаусхольдер, 1938).
Пусть dij, dikи djk— симметричные расстояния между тремя точками i, j и k. Рассмотрим симметричную матрицу Bi*с элементами b*ijи размерностью (n-1)(n-1), где:
(16)
Элемент b*ijпредставляет собой скалярное произведение векторов от точки i к точкам j и k. Это легко показать с помощью закона косинуса, где для любых трех точек
(17) откуда
(18)
Из уравнений (16) и (18) следует, что b*ij= dijdikcos, т.е. скалярному произведению векторов из точки i к точкам j и k. Любая из n точек может быть взята как точка i. Таким образом существуют n матриц B*, из которых каждая может быть взята как данная матрица скалярных произведений.
Теоремы Янга и Хаусхольдера показывают, как из матрицы скалярных произведений векторов, начинающихся в точке i, получить информацию о том, возможно ли разместить исходную совокупность точек в вещественном евклидовом пространстве, и если возможно, то какова его минимальная размерность и чему равны координаты точек на этих осях.
Теоремы Янга и Хаусхольдера относятся к любой Bi* матрице:
1. Если матрица Bi* положительно полуопределена, расстояния между стимулами могут рассматриваться как расстояния между точками, лежащими в действительном евклидовом пространстве. В терминах характеристических корней или собственных значений матрицы Bi* это означает, что точки могут рассматриваться лежащими в действительном евклидовом пространстве, если все корни или положительны, или равны 0. Отрицательные характеристические корни предполагают мнимые пространства.
2. Ранг любой положительной полуопределенной матрицы равняется размерности множества точек. Количество положительных значений равняется числу осей, необходимых для описания взаимных межточечных расстояний. Для данного набора стимулов матрица Bi*будет иметь один и тот же ранг, независимо от того, какой стимул выбран как начало.
3. Любая положительная полуопределенная матрица Bi* может быть факторизована для получения матрицы Х, где:
Bi* = X·X' . (19)
Если ранг матрицы Bi* равен r , где r (n-1), тогда матрица Х является прямоугольной матрицей (n-1)´r, элементы которой есть проекция точек на r-ортогональные оси с началом в i-ой точке r-мерного евклидова пространства. Допуская, что для выбора стимулов даны межточечные расстояния (не содержащие случайных ошибок), а матрица Bi* была построена в заданном начале, различные методики для факторизации матрицы Bi* дадут различные матрицы Х, которые, однако, будут связаны ортогональным вращением осей. Матрицы Bi*, построенные посредством использования различных точек как начала расчета, дадут соответствующие матрицы Х, которые не отличаются друг от друга с точностью до переноса и вращения осей.
Три теоремы, приведенные выше, определяют решение проблемы пространственной модели стимулов, когда заданы правильные межточечные расстояния. Первая теорема определяет, могут ли стимулы быть представлены точками действительного евклидова пространства. Вторая теорема дает критерии для определения минимальной размерности пространства. Третья теорема дает метод для получения проекций (шкальных оценок) на произвольном наборе осей пространства.
Однако на практике межточечные расстояния всегда даны нам с ошибками. Когда используются ошибочные оценки, то каждая точка будет отчасти ошибочной. Следовательно, в случае допущения, что истинная размерность значительно меньше, чем число стимулов, каждая матрица Bi* после факторизации даст результаты, которые более или менее различаются из-за ориентации осей и положения начала. При установлении начала в определенной точке возникает неявное предположение, что эта определенная точка является безошибочной. Таким образом мы сталкиваемся с проблемой выбора между n различными факторными матрицами, которые могут быть получены из данных. Одно из решений этой проблемы состоит в том, чтобы поместить начало координат не в какой-либо точке, а в центре тяжести всех точек-стимулов (Торгерсон, 1952, 1958, 1972). Эта процедура дает единственное решение и стремится взаимно компенсировать случайные ошибки для каждой отдельной точки. Опыт показывает, что помещение начала координат в центре тяжести всех точек приводит к меньшим ошибкам, чем помещение его в какую-либо произвольную точку. Рассмотрим процедуру для получения матрицы скалярных произведений векторов с началом в центре тяжести всех точек.
Пусть Bi* — матрица скалярных произведений размерностью (n-1)(n-1) с центром в точке i. Ее элемент:
(20)
Мы будем рассматривать Bi* как матрицу размерностью (n·n) с i-й строкой и j-м столбцом, составленными из нулевых элементов. Таким же образом матрицу Х можно рассматривать как матрицу размерностью (n·r) с i-й строкой, составленной из нулевых элементов.
Наша задача — перенести оси координат из начала в точке i в начало, которое будет центром тяжести для всех точек.
Пусть X0— есть искомая матрица проекций точек j на ось e0нескольких координатных систем с началом в центре тяжести n точек. Тогда:
(21)
где (22)
и равно средней проекции точек на ось e (т.е. проекции центроида на ось е),
B* = X0X0' (23)
и
И (24)
Подставляя уравнение (21) в уравнение (24), получим:
(25)
Из определения ceвидно, что
(26)
но
(27)
и
(28)
После подстановок получим:
(29)
Подстановка bjkиз уравнения (16) в уравнение (29) дает:
(30)
Суммирование каждого выражения в отдельности и упрощение приводит к:
(31)
Уравнение (31) дает стандартный прямой метод, чтобы из межточечных расстояний вычислить матрицу B*скалярных произведений с началом координат в центре тяжести всех точек. Получив оценки субъективных расстояний между всеми парами стимулов, уравнением (31) пользуются для вычисления матрицы B*. Затем эта матрица факторизуется посредством любого из обычных методов факторизации для получения проекций стимулов на r ортогональных осей пространства, проходящих через центр тяжести всех объектов. Ориентация осей зависит как от конфигурации, так и от выбранного способа факторизации (Торгерсон, 1958). Матрица B*факторизуется в общем аналогично корреляционной или ковариационной матрице в методе главных компонент (Айвазян и др., 1974). По сравнению с другими ортогональными преобразованиями, преобразование к главным компонентам искажает структуру исходных данных наименьшим образом, поскольку всякий набор из данного числа главных компонент характеризует максимальный разброс точек, спроектированных в пространство этих главных компонент. Выбор числа главных компонент определяется величиной суммарной дисперсии, которую необходимо исчерпать в том или ином решении. На практике ограничиваются теми главными компонентами, которым соответствуют наибольшие характеристические корни, а все остальные компоненты отвергаются как незначительные.
Таким образом, метод Торгерсона дает возможность построить оптимальную пространственную модель стимулов в том смысле, что полученное решение не зависит от случайных экспериментальных ошибок, поскольку оно определяется структурой сразу всех стимулов. Однако необходимо учитывать, что пространственное представление стимулов, определенное по нескольким максимальным характеристическим корням матрицы скалярных произведений, может оказаться непригодным, если, например, истинная структура стимулов имеет локальные нелинейные цикличности (Терехина, 1977).
Алгоритм Янга-Торгерсона. Построение пространственной модели производится в два последовательных этапа. На первом этапе исходная матрица различий анализируется метрическим методом Торгерсона. По числу наибольших характеристических корней определяется размерность пространства, и таким образом формируется исходная конфигурация для n точек, между которыми вычисляются n(n-1)/2 расстояний.
На втором этапе данная конфигурация проверяется на выполнение условия монотонности. Для этого строится диаграмма монотонности. Она представляет собой график, осью абсцисс которого служат межточечные расстояния, а осью ординат — исходные различия. Каждой паре точек-стимулов (i,j) на этой диаграмме будет соответствовать точка с абсциссой dijи ординатой Dij. Условие монотонности означает, что от начальной точки графика каждая последующая точка должна располагаться только правее или выше предыдущей, и никогда не может быть ниже или левее. Если, следуя этому правилу, соединить последовательно все точки отрезками, то получится график, характеризующий монотонность связи между межточечными расстояниями и исходными различиями. Очевидно, что если для каких-либо пар точек-стимулов (i,j) монотонность не выполняется, то точки, представляющие их на диаграмме монотонности, не попадут на построенный график, а будут левее или ниже его. Для каждой выпавшей из графика точки можно вычислить ее отклонение от графика по оси абсцисс расстояний (по оси ординат это отклонение измерять не нужно, поскольку порядок различий задан как исходный) и сумма этих отклонений
(32)
где есть значение “правильной” абсциссы, для точки, выпавшей из графика монотонности) покажет степень несоответствия данной диаграммы условию полной монотонности.
Данный метод определения количественной меры достижения монотонности был предложен Крускалом (1964) и предложенная им мера была названа стрессом. Для достижения полной монотонности в алгоритме Янга—Торгерсона определяется матрица, минимизирующая выражение (33). Количественной мерой достижения монотонности служит мера, названная авторами индексом адекватности:
(33)
В случае неудовлетворительного значения I найденные вводятся в исходную матрицу различий, и первый этап повторяется сначала. В обратном случае переходят к следующему этапу — улучшению исходной конфигурации. Для этого каждая координата X точки i преобразуется с помощью выражения:
(34)
где p — коэффициент, определяющий сходимость итеративного процесса.
Новая конфигурация также проверяется на условие достижения монотонности по индексу адекватности I. Если I не получил удовлетворительного значения, то последний этап повторяется. В обратном случае решением являются координаты точек, полученные в последнем шаге итерации.
§ 4. Построение метрической модели
В ходе построения пространственной модели данных необходимо измерять расстояния между точками-стимулами, чтобы соотносить их с исходными оценками различий. Для измерения расстояний в пространстве вводится метрика. Выбор метрики для психологического пространства также основывается скорее на содержательных аспектах данных, чем на формальных.
Так, Шепард (1964) предлагает условное деление стимулов на два класса в зависимости от их перцептивной целостности. Имеется в виду, что одни стимулы воспринимаются как целостные образования, и обычно сознательно не анализируются, например, цвета, запахи, фонемы и т.п., тогда как другие стимулы явно различаются по несвязанным между собой признакам, как, например, в работе Эттнива (1950), где стимулы — плоские геометрические фигуры — различались по величине, яркости и ориентации. В пространственной модели “не анализируемых” стимулов удобнее использовать евклидову метрику. Инвариантность евклидова расстояния относительно вращения систем координат (изотропность евклидова пространства) соответствует в данном случае такому типу поведения испытуемого, как если бы он оценивал различия между простыми, одномерными объектами. В случае явно “анализируемых” стимулов, когда итоговая оценка составляется как бы из последовательного добавления по очередному признаку, более подходит “sity-block”-метрика.
И метрика “sity-block”, и евклидова метрика являются частными случаями одной общей функции:
(35)
известной как метрика Минковского. Для случая “sity-block” p=1, а для евклидовой метрики — p=2.
Конечно, выбор метрики определяется не только тем, “анализируемые” стимулы или “не анализируемые”, и не ограничивается двумя приведенными видами метрик. В некоторых работах предлагается решать задачу для нескольких значений p, и затем экспериментатор выбирает наиболее “интерпретируемую” модель расстояния. Например, для пространственной модели цветоразличения Крускел (1964), варьируя в выражении (35) показатель p от 1 до 5, получил, что в данном случае наиболее подходит метрика с p=2.5. В другой работе (Шепард, 1962) было показано, что в пространстве цветоразличения можно принять евклидову метрику, если использовать нелинейную форму соотношения между исходными мерами сходства и межточечными расстояниями.
Такие выводы все-таки носят частный характер, они связаны с конкретными экспериментальными ситуациями, тогда как для более общих выводов, как и в случае построения пространственной модели, необходимы более широкие исследования.
Существенное влияние на вид метрики может оказать инструкция, направляющая внимание испытуемого. Например, в одном из опытов Шепард (1962) предъявлял испытуемому стимулы, представляющие собой окружность с одной радиальной линией. Стимулы различались между собой величиной окружности и углом наклона радиальной линии. Исследования показали, что результаты оценок зависят от того, на что больше обращает внимание испытуемый — на величину окружности или на наклон радиуса. Причем одни испытуемые оценивают стимулы только по одному какому-то признаку и стараются последовательно придерживаться выбранной стратегии, другие стараются учитывать оба признака, а третьи могут переключать внимание с одного признака на другой. Поэтому при проведении исследований следует искать решение отдельно для каждой фиксированной инструкции. При построении общей модели полезно сопоставлять данные, полученные для различных установок внимания.
§ 5. О развитии моделей многомерного шкалирования
Выше были описаны так называемые классические модели метрического и неметрического МШ (Торгерсон, 1952; Шепард, 1962; Крускал, 1964). Их характерная особенность заключается в том, что анализируется лишь одна матрица различий. В тех же случаях, когда исследователь имеет несколько таких матриц, то он вынужден либо анализировать их по отдельности, либо усреднять все данные, сводя их в одну матрицу.
Следующим серьезным вкладом в разработку новой идеологии в МШ (после работ Шепарда и Крускала) была разработка Мак Ги (1968) так называемого реплицирующего МШ (replicated MDS), распространившего МШ на одновременный анализ более чем одной матрицы сходств. Характерной особенностью этого подхода является то, что она применяет одну и ту же модель евклидовой метрики к нескольким матрицам различий одновременно. Основное допущение данного подхода заключается в том, что всем отдельным матрицам данных соответствует одна и та же пространственная конфигурация стимулов. Из этого следует, что, с точностью до случайной ошибки, все матрицы одинаковы, и, таким образом, повторяют одна другую. Используя процедуру реплицирующего МШ (например, в системе SPSS), исследователь получает возможность одновременно анализировать несколько отдельных матриц и строить единое субъективное пространство по данным нескольких испытуемых. Хорошим примером использования данного подхода в МШ может служить работа Якобовича (1974), где предпринято исследование развития речи у детей. В его эксперименте детей 5, 7, 9 лет и взрослых (по 15 человек в группе) просили оценить различие между 15 парами частей человеческого тела. Данные по каждой группе в отдельности (15 повторяющихся матриц) обрабатывались реплицирующим МШ.
Другим серьезным продвижением в МШ (после разработки неметрического МШ) по праву считают работы Кэррола и Чанга (1970). Поскольку первоначальная модель Торгерсона не допускала каких-либо индивидуальных различий в процессе оценивания испытуемыми сходства стимулов, а индивидуальные различия представляют для психологов особый интерес, этими авторами была разработана новая модель — индивидуальное шкалирование или взвешенная модель МШ. В этой обобщенной модели, основанной также на евклидовой метрике, предполагается, что между несколькими исходными матрицами могут быть нелинейные и немонотонные различия. Таким образом, предполагается существование индивидуальных различий гипотетических субъективных пространств испытуемых. Название “взвешенная” модель МШ получила в силу предположения о том, что координаты стимулов для каждого отдельного испытуемого связаны с координатами групповой матрицы некоторыми весовыми коэффициентами. Эти весовые коэффициенты и являются оценками индивидуальных различий.
Модели индивидуальных различий в МШ достаточно широко применяются в психологии, главным образом для изучения индивидуальной специфики оценок сложных стимулов различными людьми. В ряде современных статистических систем представлены “хорошие” реализации взвешенной модели МШ, например, так называемая процедура INDSCAL в системе SPSS.
Литература
Основная
1. Дейвисон М. Многомерное шкалирование. М.: Финансы и статистика, 1988.
2. Парамей Г.В. Применение многомерного шкалирования в психологических исследованиях // Вестн. Моск. Ун-та. Сер. 14, Психология. 1983. № 2. С. 57—70.
3. Терехина А.Ю. Анализ данных методами многомерного шкалирования. М.: Наука, 1986.
Дополнительная
1. Измайлов Ч.А. Сферическая модель цветоразличения. М.: Изд-во Моск. ун-та, 1980.
2. Торгерсон У.С. Многомерное шкалирование. Теория и метод // Статистическое измерение качественных характеристик. М.: Статистика, 1972.
3. Шепард Р. Многомерное шкалирование и неметрические представления. // Нормативные и дескриптивные модели принятия решений. М.: Наука. 1981.
4. Multidimentional Scaling. SPSS Professional Statistics 6.1. Marija J. Norusis: SPSS Inc., 1994. P. 155—222.
Методические рекомендации по выполнению учебного задания по теме
“Многомерное шкалирование“
Задание 1. Построение субъективного пространства восприятия букв русского алфавита
Цель задания. практическое освоение метода МШ и овладение навыками применения его в психологических исследованиях для измерения сложных субъективных переменных и построения геометрической модели различения сложных стимулов.
Методика
Аппаратура. Задание выполняется на IBM-совместимом персональном компьютере. Для предъявления сигнала “Внимание” используются головные телефоны, соединенные со звуковым синтезатором персонального компьютера. Для выполнения учебного задания используется универсальная компьютерная программа parcom.exe.
Стимуляция. В центре экрана монитора предъявляются пары букв русского алфавита1. Длительность предъявления — 1 с.
Процедура опыта. При отработке задания каждый студент выступает сначала в роли испытуемого, а затем обрабатывает собственные данные.
Проба начинается со звукового сигнала “Внимание” (тон частотой 500 Гц и длительностью 200 мс). После предъявления стимулов в течение четырехсекундного интервала испытуемый должен оценить по 10-балльной шкале степень различия букв в паре: 0 — минимальное различие, 9 — максимальное. Оценки фиксируются на цифровой клавиатуре компьютера и подтверждаются нажатием клавиши “Enter”. Всего в опыте используется 12 букв, что составляет n(n-1)/2=66 пар. Каждая пара предъявляется по 4 раза. Предъявления производятся в квази-случайном порядке.
Опыт состоит из тренировочной (10 проб) и основной серий (264 пробы); в середине основной серии — двух-трех минутный перерыв.
Обработка результатов
После окончания опыта каждый студент получает распечатку матрицы субъективных различий 12 Ѕ 12, каждый элемент этой матрицы является результатом усреднения 4-х оценок. Эти данные также записываются в обычный ASCII-файл, имя которого соответствует фамилии испытуемого, а расширение — mds (например: ivanov.mds).
Для дальнейшей обработки результатов следует воспользоваться одной из современных статистических программ, в состав которой входят методы МШ. Ниже будет показано, как обрабатывать результаты в статистических системах “Stadia” и SPSS .
Работа в системе “Stadia”. После запуска программы (stadia.exe) пользователь попадает в редактор данных и перед ним открываются 2 возможности: либо вручную ввести свои данные в электронную таблицу, либо прочитать файл с матрицей данных с жесткого диска или дискеты (F3). Напомним, что данные должны быть в виде квадратной матрицы субъективных различий; матрица может быть либо полной, когда обе ее половины симметричны относительно отрицательной диагонали, либо данные заносятся лишь в ее нижнюю левую половину, а верхняя может быть заполнена любыми числами, например, нулями. Далее в меню статистических процедур (F9) нужно выбрать пункт “Многомерные методы”, а в этом пункте — подпункт “Шкалирование”. После окончания этапа факторизации матрицы различий на экране появляются результаты первых расчетов: собственные значения координатных осей и процент объясняемой дисперсии. Смысл этих показателей подробно объяснен в главе 1 настоящего раздела, посвященной факторному анализу. Сразу же после появления на экране первых результатов необходимо сохранить их в отдельном файле для последующего анализа, для чего следует нажать на клавишу F2, выбрать опцию записи данных в файл и задать имя файла данных. В дальнейшем после появления на экране монитора новых результатов и нажатия на F2 они будут записываться в тот же самый файл.
Далее нужно выбрать один из вариантов метода — метрический или неметрический. В данном учебном задании предусматривается знакомство с обоими вариантами. Метрическое МШ представлено алгоритмом Торгерсона, в неметрическое включены 4 варианта, отличающиеся способом расчета “стресса”.
В метрическом алгоритме Торгерсона предусмотрен расчет координат стимулов-объектов, исходя из евклидовой метрики. В распечатке результатов представлены: 1) координаты стимулов в n-мерном пространстве; 2) четыре различных показателя “стресса”, характеризующие “хорошесть” полученного решения с точки зрения соответствия исходной матрицы различий матрице вычисленных расстояний между стимулами.
При обработке матрицы субъективных расстояний по одному из неметрических алгоритмов, следует сначала выбрать одну из метрик (для корректности сравнения с результатами метрического анализа следует также выбрать евклидову метрику), а затем указать ожидаемое количество осей субъективного пространства. При выборе количества осей следует руководствоваться следующими соображениями: 1) начинать лучше с явно избыточного количества, например, с четырех или даже с пяти, а затем, последовательно уменьшая размерность пространства, внимательно анализировать изменение показателей “стресса” и пытаться дать выделенным осям содержательную интерпретацию1; 2) в любом случае не следует ограничиваться каким-то одним вариантом (скажем, двумерным, и только потому, что такую модель легче изобразить геометрически), для последующего анализа результатов стоит попробовать несколько решений и получить соответствующие распечатки.
В распечатке результатов представлены те же показатели, что и в метрическом методе — координаты стимулов в пространстве указанной размерности и показатели “стресса”.
Работа в системе SPSS. Для тех студентов, кто знает английский язык и ориентируется в операционной среде Windows, можно также рекомендовать статистическую систему SPSS, которая нашла достаточно широкое распространение среди наших зарубежных коллег. Эта система не так проста и доступна как “Stadia”, но зато предоставляет ряд дополнительных возможностей, которые могут быть весьма полезны психологу в серьезной исследовательской работе.
После вызова программы из Windows так же, как и при работе в “Stadia”, вы попадаете в электронную таблицу редактора данных и сразу же можете вводить данные в первую переменную (var00001). Если данные уже набраны в виде ASCII-файла, то их можно импортировать в SPSS (меню: File, подменю: Read ASCII Data). В случае импорта данных следует указать путь к файлу данных и его имя, а также выбрать подходящий тип формата данных — Freefield. Далее, нажав на кнопку Define, вы переходите в режим определения переменных, где необходимо каждой переменной (их столько, сколько столбцов в вашем файле данных) присвоить имя — в окошке Name, и определить ее тип — Numeric. Ввод каждой переменной в общий список анализируемых переменных (Defined Variables) осуществляется нажатием клавишу Add. В случае какой-либо ошибки при вводе имени переменной следует воспользоваться клавишей Remove, и осуществить ввод заново. После окончания определения всех переменных нажмите на клавишу OK. SPSS автоматически перейдет в окно редактора данных и осуществит ввод вашего ASCII-файла.
Переход к процедуре МШ осуществляется следующим образом: меню — Statistics, подменю — Scale, а в нем —Multidimentional Scaling... После вызова процедуры МШ в правом окне выделите мышкой все переменные и перенесите их в окно Variables, нажав на кнопку со стрелкой.
Следующий важный этап работы — выбор основных параметров процедуры МШ. В первой группе параметров (Distances) указывают, что собой представляют исходные данные. В нашем случае — это квадратно-симметричная матрица различий (square symmetric), поэтому данный параметр, установленный в программе по умолчанию (т.е. исходно), изменять не нужно. Если же в опыте получена асимметричная матрица, и у исследователя есть основание думать о невыполнении аксиомы симметричности, то следует указать другую форму матрицы данных (Shape) — квадратно-асимметричную (square asymmetric). Кроме того, в данной опции имеется возможность работать не только с матрицей различий, но и получать оценки субъективных различий не прямо (в результате их прямого сравнения), а косвенно — расчетным путем, например, из оценок испытуемыми предъявляемых стимулов по отдельности (Create distances from data). Для выхода из данного пункта и для подтверждения всех сделанных установок нужно нажать на кнопку Continue (продолжить).
Следующий важный шаг — выбор параметров модели МШ (Model...). Главное в данном пункте — это задать уровень проведенных измерений (Level of Mesurement), т.е. указать, с какими данными вы имеете дело — метрическими (Interval, Ratio) или неметрическими (Ordinal). Как было сказано выше, данным, измереннным по шкале порядка (Ordinal), адекватна неметрическая модель МШ, а более “сильным” данным, измеренным по шкалам интервалов (Interval) или отношений (Ratio), соответствует метрическая модель. Кроме того здесь же указывается минимальное и максимальное количество ожидаемых осей многомерного пространства (Dimensions); очевидно, что в процессе поиска наилучшего решения эти два параметра могут меняться. В двух оставшихся пунктах (Scaling model и Conditionality) следует оставить без изменения те параметры, которые заданы по умолчанию, т.е. Euclidean distance и Matrix, соответственно; эти две опции имеют отношение к более сложным моделям МШ, которые в рамках данного учебного пособия не рассматриваются. После установки всех параметров необходимо также нажать на кнопку Continue (продолжить).
В последней группе параметров (Options) заказывают дополнительные возможности вывода результатов МШ и ряд числовых критериев, определяющих нюансы работы расчетного алгоритма МШ. В первой группе (Display) стоит заказать выдачу графика геометрической модели субъективного пространства (Group plots), а также возможность записи в файл результатов информации обо всех выбранных выше параметрах (Model and options summary). Во второй группе опций (Criteria) не стоит делать никаких изменений — пусть все параметры останутся заданными по умолчанию. Заметим лишь, что эти параметры определяют количество итераций вычислительного алгоритма МШ и, в принципе, могут повлиять на точность и оптимальность вычислений координат стимулов. После нажатия на кнопку Continue (продолжить) вы возвращаетесь в основное меню и можете запустить выполнение процедуры ALSCAL МШ, нажав на кнопку OK.
В распечатке результатов (окно Output1) приводится следующая информация (по порядку):
1. Сводка всех выбранных параметров модели и опций.
2. Изменение величины “стресса” (по Янгу) на каждом шаге итерации. Отметим, что в соответствии с заданным в опциях критерием вычисления прекращаются в том случае, когда: а) величина стресса становится меньше заданной величины (Minimum S-stress = 0,00500); б) изменение величины стресса на следующем шаге итерации очень незначительно (Convergence Criterion = 0,00100); в) достигается максимальное число итераций (Maximum Iterations = 30).
3. Величины “стресса” (по Крускалу) и квадрата коэффициента корреляции (RSQ) исходной матрицы субъективных различий и матрицы межстимульных расстояний, вычисленных моделью. Это основные показатели для оценки “хорошести” соответствия расчетов использованной модели МШ исходным данным.
4. Координаты стимулов в n-мерном пространстве. Напомним, что минимальная и максимальная величины n задавались в подменю Dimentions при выборе параметров модели.
5. В самом конце распечатки указывается, какие построены графики.
Нажав на пиктограмму Chart Carusel внизу экрана или выбрав в основном меню SPSS пункт Windows (а в нем подпункт Chart Carusel), имеется возможность проанализировать построенные графики. Основной рисунок — это график расположения стимулов в 2- или 3-мерном эвклидовом пространстве (Derived Stimulus Configuration) или геометрическая модель субъективного пространства, построенная по рассчитанным выше координатам стимулов (см. распечатку результатов, пункт 4). Кроме того полезно также посмотреть и на график соответствия исходных различий (Disparities) рассчитанным моделью расстояниям (Distances). Эта так называемая диаграмма рассеяния (Scatter plot of linear fit) является наглядным графическим представлением качества этого соответствия, и, по сути дела, соответствует указанному выше коэффициенту корреляции (RSQ). Фактически, чем лучше точки ложатся на прямую линию, тем лучше модель воспроизводит исходные данные.
Анализ и обсуждение результатов
В ходе анализа полученных результатов (начнем с метрического варианта решения) нужно рассмотреть проблему определения минимальной размерности полученного пространства. Для ее решения необходимо сопоставить величины собственных значений осей и процент объясняемой дисперсии для пространств различной размерности. Значительное понижение величины собственного значения при переходе от n-мерного решения к (n+1)-мерному свидетельствует о достаточности n измерений и избыточности (n+1)-й координаты. Близкие значения для обоих решений скорее свидетельствуют в пользу необходимости учитывать и (n+1)-ю координату.
“Важность” каждой следующей оси анализируемого пространства оценивают также и по величине ее вклада в общий процент объясняемой дисперсии. Строго говоря, какой-либо определенный рецепт о критической величине суммарного процента объясняемой дисперсии дать достаточно трудно. Здесь лучше полагаться на здравый смысл и опыт. Тем не менее, будет уместно сделать два замечания: во-первых, явно не стоит добиваться (и поэтому ожидать) очень высокого суммарного процента, поскольку в измерениях всегда присутствует известная доля экспериментального “шума”; во-вторых, опыт многих психофизиков показывает, что в пилотажных работах 70—75% объясняемой дисперсии считается очень хорошим показателем, и даже в хорошо спланированных исследованиях он не часто превышает 90%.
Вывод о минимальной размерности должен быть согласован с содержательной интерпретацией осей координат, которая составляет вторую важную проблему анализа результатов. На этой стадии анализа результатов необходимо построить 2- и 3-мерные графические модели субъективного пространства и очень внимательно проанализировать взаимное расположение точек-стимулов. При невозможности построить 3-мерные диаграммы вручную, можно ограничиться анализом 2-мерных графиков (оси: 1-2, 1-3, 2-3, 1-4 и т.д.) либо воспользоваться любой компьютерной программой, обеспечивающей 3-мерную графику. Это несложно сделать в программе “Stadia”, для чего введите матрицу координат стимулов в редактор данных и воспользуйтесь функцией “Рисунок” (F6) из основного меню, затем выберите в меню “Тип графика данных” пункт 9 — “3-мерных данных” и укажите номера изображаемых переменных.
По графикам необходимо определить графические характеристики букв, связанные с каждой осью полученного пространства, и дать им по возможности простую и однозначную интерпретацию.
После определения минимальной размерности субъективного пространства следует обратиться к результатам неметрического шкалирования и обработать матрицу субъективных различий одним из предложенных методов, выбрав евклидову метрику и задав определенное выше число осей. После построения графиков результатов неметрического решения их нужно сравнить с аналогичными графиками результатов метрического решения и проанализировать сходство и различие.