Факторный и компонентный анализ как методы снижения размерности

Главными целями факторного анализа являются: (1) устранение мультиколлениарности; (2) сокращение числа переменных (редукция данных) и (3) определение структуры взаимосвязей между переменными, т.е. классификация переменных.

Поэтому факторный анализ используется или как метод сокращения данных или как метод классификации. Под факторным анализом понимается методика комплексного и системного изучения и измерения воздействия факторов на величину результативного показателя. Факторы в результате анализа получают количественную и качественную оценку. Для выявления наиболее значимых факторов и, как следствие, факторной структуры, наиболее оправданно применять метод главных компонентов (МГК).

Факторный анализ - более мощный и сложный аппарат, чем метод главных компонент, поэтому он применяется в том случае, если результаты компонентного анализа не вполне устраивают. Но поскольку эти два метода решают одинаковые задачи, необходимо сравнить результаты компонентного и факторного анализов, т.е. матрицы нагрузок, а также уравнения регрессии на главные компоненты и общие факторы, прокомментировать сходство и различия результатов.

Компонентный анализ предназначен для преобразования системы k исходных признаков, в систему k новых показателей (главных компонент). Главные компоненты не коррелированны между собой и упорядочены по величине их дисперсий, причем, первая главная компонента, имеет наибольшую дисперсию, а последняя, k-я, наименьшую. При этом выявляются неявные, непосредственно не измеряемые, но объективно существующие закономерности, обусловленные действием как внутренних, так и внешних причин.

Компонентный анализ является одним из основных методов факторного анализа. В задачах снижения размерности и классификации обычно используются m первых компонент (m< k).

При наличии результативного показателя Y может быть построено уравнение регрессии на главных компонентах. На основании матрицы исходных данных:

размерности (n×k) , где xij – значение j-го показателя у i-го наблюдения (i=1,2,...,n; j=1,2,...,k) вычисляют средние значения показателей , а также s1, ..., sk и матрицу нормированных значений:

с элементами:

Рассчитывается матрица парных коэффициентов корреляции:

с элементами: , где, j = 1,2, ..., k.

 

На главной диагонали матрицы R, т.е. при j=l,

Модель компонентного анализа имеет вид:

(1) , где:

a– “вес”, факторная нагрузка, ν-ой главной компоненты на j-ой переменной;

f – значение ν-й главной компоненты для i-го наблюдения (объекта),

где ν=1,2, ... ,k.

В матричной форме модель (1) имеет вид: ,

где: – матрица значений главных компонент размерности (n×k)

– матрица факторных нагрузок размерности (k×k).

АТ – транспонированная матрица А;

f– значение ν-й главной компоненты у i-го наблюдения (объекта);

a – значение факторной нагрузки ν-й главной компоненты на j-й переменной.

 

Матрица F описывает n наблюдений в пространстве k главных компонент. При этом элементы матрицы F нормированы, то есть:

, , а главные компоненты не коррелированны между собой. Из этого следует, что, (2),

 

где – единичная матрица размерности (k×k).

Выражение (2) может быть также представлено в виде:

(3) ν ,ν ′ =1,2,..., k.

С целью интерпретации элементов матрицы А, рассмотрим выражение для парного коэффициента корреляции, между Zj-переменной и, например, f1-й главной компонентой. Так как, zj и f1 нормированы, будем иметь с учетом (1):

Принимая во внимание (3), окончательно получим:

Рассуждая аналогично, можно записать в общем виде:

для всех j=1,2, ... , k и ν=1,2, ... , k.

 

Таким образом, элемент ajv матрицы факторных нагрузок А, характеризует тесноту линейной связи между zj-исходной переменной и fv-й главной компонентой, то есть

.

Рассмотрим теперь выражение для дисперсии zj-й нормированной переменной. С учетом (1) будем иметь:

, где ν, ν'=1,2, ... , k.

 

Учитывая (3), окончательно получим:

(4)

По условию переменные zj нормированы и sj2=1. Таким образом, дисперсия zj-й переменной согласно (4), представлена своими составляющими, определяющими долю вклада в нее всех k главных компонент.

Полный вклад ν-й главной компоненты в дисперсию всех k исходных признаков вычисляется по формуле:

Одно из основополагающих условий метода главных компонент, связано с представлением корреляционной матрицы R, через матрицу факторных нагрузок А:

 

Учитывая (2), окончательно получим:

 

Перейдем теперь непосредственно к отысканию собственных значений и собственных векторов корреляционной матрицы R.

Из линейной алгебры известно, что для любой симметрической матрицы R, всегда существует такая ортогональная матрица U, что выполняется условие: (5), где

– диагональная матрица собственных значений размерности (k*k)

– ортогональная матрица собственных векторов размерности (k*k)

 

Так как матрица R положительно определена, т.е. ее главные миноры положительны, то все собственные значения положительны – λν>0 для всех ν=1,2, ..., k.

В компонентном анализе элементы матрицы Λ ранжированы λ1≥λ2≥...≥λν ≥...≥λk>0. Как будет показано ниже, собственное значение λν характеризует вклад ν-й главной компоненты в суммарную дисперсию исходного признакового пространства.

Таким образом, первая главная компонента вносит наибольший вклад в суммарную дисперсию, а последняя k-я – наименьший.

В ортогональной матрице U собственных векторов, ν-й столбец является собственным вектором, соответствующим λν-му значению.

Собственные значения λ1≥...≥λν≥...≥λk находятся как корни характеристического уравнения:

Собственный вектор Vν, соответствующий собственному значению λν корреляционной матрицы R, определяется как отличное от нуля решение уравнения, которое следует из:

Нормированный собственный вектор Uν равен:

Из условия ортогональности матрицы U следует, что , но тогда по определению матрицы R и Λ подобны, так как они согласно (5) удовлетворяют условию:

Так как следы, т.е. суммы диагональных элементов у подобных матриц равны, то:

Напомним из линейной алгебры, что умножение матрицы U на обратную матрицу U-1, дает единичную матрицу Е. Следы матричных произведений (U-1)×(RU) и R×(UU-1) также равны.

Учитывая, что сумма диагональных элементов матрицы R равна k, будем иметь:

Таким образом, (6)

Представим матрицу факторных нагрузок А в виде: (7)

а ν-й столбец матрицы А: , где Uν – собственный вектор матрицы R, соответствующий собственному значению λν.

Найдем норму вектора Аν:

Здесь учитывалось, что вектор Uν нормированный и . Таким образом,

Сравнив полученный результат с полным вкладом ν-й главной компоненты в дисперсию всех k исходных признаков (вычисляется по формуле ), можно сделать вывод, что собственное значение λν характеризует вклад ν-й главной компоненты в суммарную дисперсию всех исходных признаков. Из (7) следует:

 

Согласно (6) общий вклад всех главных компонент в суммарную дисперсию равен k. Тогда удельный вклад ν-й главной компоненты определяется по формуле:

 

Суммарный вклад m первых главных компонент определяется из выражения:

Обычно для анализа используют m первых главных компонент, суммарный вклад которых превышает 60–70%.

Матрица факторных нагрузок А используется для экономической интерпретации главных компонент, которые представляют линейные функции исходных признаков. Для экономической интерпретации fν используются лишь те xj, для которых, |а|>0,5.

Значения главных компонент для каждого i-го объекта (i=1,2,...,n) задаются матрицей F.

Факторный анализ - более мощный и сложный аппарат, чем компонентный анализ. Если число исходных показателей k и число общих факторов m и корреляц. матрица R допускают построение модели фак. анализа, то для выполнения условия единственности решения требуются дополнительные ограничения на матрицу факторных нагрузок А , а также на ков. матрицу для вектора специфических факторов .

Пусть Z-это матрица нормированных значений исходных показателей. , тогда модель фак. анализа: это нормированное значение j-го показателя для i-го наблюдения. А- матрица факторных нагрузок.

Матрица значений: это значение j-го специфического фактора для i-го наблюдения.

Отсюда связь между общим фактором, можно записать в виде:

 

содержание