Отсутствует. Для классификации связи по значению линейного

Коэффициента корреляции используется шкала Чеддока.

Выводы по результатам корреляционного анализа включают в

себя констатацию факта наличия связи, определение её направления,

Предварительную оценку формы связи по линии эмпирической регрессии и

классификацию связи по степени её тесноты.

Парная регрессия на основе метода наименьших квадратов

Парная регрессия характеризует связь между двумя признаками:

Факторным и результативным.

Задача построения уравнения регрессии для одного факторного и

одного результативного признака формулируется следующим образом:

Пусть имеется набор значений двух переменных:

Результативного признака i y и факторного признака i x . Между этими

переменными существует объективная связь вида: i ( i ) i y = f x +ε .

Необходимо по данным наблюдения ( i y , i x , i=1,n) подобрать функцию

yˆ = F(x) , наилучшим образом описывающую существующую связь.

При подборе функции последовательно решаются две задачи:

• Определяется вид функциональной зависимости, то есть

Проводится спецификация модели.

• Рассчитываются значения параметров уравнения регрессии.

В парной регрессии выбор вида математической функции может

быть осуществлён разными методами:

- аналитическим, исходя из материальной природы связи;

- графическим, на основе линии эмпирической регрессии;

- на основе показателей качества уравнения регрессии.

Показателем качества уравнения регрессии является величина

остаточной дисперсии:

( )

n

Y y

n

i

Y y

Σ=

= 1

ˆ

ˆ

σ .

Этот показатель рассчитывается для уравнений регрессии,

Построенных по разным математическим функциям. Лучшим по качеству

Является уравнение, для которого 2 min

ˆ → y− y σ .

При построении уравнений парной регрессии чаще всего

используют следующие уравнения:

1. прямой yˆ = a + bx ,

2. параболы второго порядка yˆ = a + bx + cx2 ,

Гиперболы

x

yˆ = a + b ,

4. степенной yˆ = a ⋅ xb ,

5. показательной yˆ = a ⋅bx ,

Логистической кривой bc CX

y a + −

=

ˆ и т.д.

Оценка параметров уравнений регрессии может быть проведена

Разными методами.

Классический подход к оцениванию параметров основан на методе

Наименьших квадратов (МНК).

Формат: Список

Метод наименьших квадратов позволяет получить такие оценки

Параметров уравнения регрессии, которые минимизируют функционал

вида:

( ˆ ) min

2 → − =Σ=

n

i

I i S y y ;

Применение метода наименьших квадратов для расчёта параметров

Уравнения регрессии рассмотрим на примере прямолинейной зависимости

yˆ = a + bx .

Подставим аналитическое выражение функции yˆ = a + bx в

функционал S:

( ) min 2 S =Σ y − a − bx → .

Для нахождения минимума функции двух переменных а и b

Необходимо взять частные производные по каждому параметру и

приравнять их к нулю:

= 0;

Da

dS = 0

Db

DS .

В результате получаем систему нормальных уравнений:

⎪⎩

⎪⎨ ⎧

⋅ + ⋅ =

+ ⋅ =

Σ Σ Σ

Σ Σ

.

;

A x b x2 xy

Na b x y

Решение системы уравнений даёт оценки параметров a и b:

;

n

Y b x

a Σ − ⋅Σ

= ( ) ;

2 2 Σ Σ

Σ Σ Σ

=

X x

Xy

n

X y

b

В линейном уравнении регрессии параметр а показывает

усреднённое влияние на результативный признак неучтённых факторов.

Формально а= y при х=0. Интерпретация параметра а как среднего

Значения результативного признака возможно лишь при условии, что

Среди наблюдаемых значений факторного признака есть значения, равные

Или близкие к 0. Параметр b в уравнении линейной регрессии называется

Коэффициентом регрессии. Коэффициент регрессии показывает, на

Сколько в среднем изменится значение результативного признака при

Увеличении факторного на единицу собственного измерения.

Для получения качественного уравнения регрессии необходимо

чтобы данные наблюдения соответствовали следующим требованиям:

Число наблюдений должно в 6-7 раз превышать число

Рассчитываемых параметров при переменных х. Таким образом,

Искать линейную регрессию имея менее 7 наблюдений не имеет смысла;

Распределение единиц наблюдения по факторному

Признаку должно быть однородным и подчиняться нормальному

Закону распределения.