Вопрос 3. Линейная модель парной регрессии. Смысл и оценка параметров

Парная регрессия представляет собой уравнение, описывающее связь между двумя переменными: зависимой переменной и независимой переменной . Иногда переменную называют результатом, а переменную – фактором: , при этом функция может быть как линейной, так и нелинейной. В данной главе более детально рассмотрим линейную парную регрессию. Предположим, что у нас есть набор значений двух переменных Соответствующие пары можно изобразить на одной плоскости:

 

Параметр соответствует отрезку прямой, отсекаемому линией регрессии при пересечении с осью ординат, параметр b определяет наклон линии регрессии к оси абсцисс. При этом параметр a традиционно принято называть свободным членом регрессии, а параметр – коэффициентом регрессии, который показывает, на сколько единиц в среднем изменится значение при изменении на одну единицу.

Допустим, что нашей задачей является подбор функции из параметрического семейства функций наилучшим образом описывающая зависимость от В качестве меры отклонения функции от исходных наблюдений можно использовать:

- сумму квадратов отклонений;

- сумму модулей отклонений;

- другие меры отклонений.

Согласно методу наименьших квадратов (МНК) неизвестные параметры модели выбираются таким образом, чтобы сумма квадратов отклонений эмпирических значений от модельных была минимальной:

Среди преимуществ метода наименьших квадратов следует особенно отметить лёгкость вычислительной процедуры и хорошие по статистическим свойствам оценки. Данные факты объясняют широкое применение данного метода в статистическом анализе. Из недостатков наиболее существенным является – чувствительность к выбросам. Согласно необходимому условию экстремума функции нескольких переменных, необходимо найти частные производные по этим переменным и приравнять их к нулю.

Свойства оценок МНК определяются предположениями относительно свойств случайного возмущения в модели наблюдений. Эти предположения обычно называются условиями Гаусса – Маркова.

Условия Гаусса-Маркова:

1. – условие, гарантирующее несмещённость оценок МНК.

2. – условие гомоскедастичности, его нарушение приводит к проблеме гетероскедастичности.

3. – условие отсутствия автокорреляции предполагает отсутствие систематической связи между значениями случайного члена в любых двух наблюдениях. Если данное условие не выполняется, то в модели возникает проблема автокорреляции случайных возмущений.

4. для всех условие независимости случайного возмущения и объясняющей переменной. Значение любой независимой переменной в каждом наблюдении должно считаться экзогенным, полностью определяемым внешними причинами, не учитываемыми в уравнении регрессии.


Достаточно часто накладывают ещё одно условие на остатки модели, но данное условие не является условием Гаусса-Маркова: , оно очень полезно для проверки многих гипотез.


Свойства оценок, полученных с помощью МНК:

1. Линейность оценок – оценки параметров и представляют собой линейные комбинации наблюдаемых значений объясняемой переменной .

2. Несмещённость оценок:

3. Состоятельность оценок:

4. Эффективность – данное свойство означает, что оценка имеет минимальную дисперсию в заданном классе оценок:


Теорема Гаусса-Маркова: если выполнены условия Гаусса-Маркова, тогда оценки , полученные с помощью метода наименьших квадратов, являются линейными, несмещёнными, эффективными и состоятельными оценками.