В случае парной зависимости

Показатели тесноты связи используются для решения следующих задач:

1. Вопрос о необходимости изучения данной связи и целесообразности ее практического применения.

2. Вопрос о степени различий тесноты связи для конкретных условий.

3. Для выявления решающих факторов, воздействующих главным образом на формирование величины результативного признака.

Теснота связи при линейной зависимости измеряется с помощью линейного коэффициента корреляции Пирсона:

Значение линейного коэффициента корреляции важно для исследования социально-экономических явлений и процессов, распределение которых близко к к нормальному. Он принимает значения в интервале –1 ≤ r ≤ 1. Отрицательные значения указывают на обратную связь, положительные – прямую. При r=0 линейная связь отсутствует. Чем ближе r по абсолютной величине к 1, тем теснее связь между признаками. При r= 1 связь функциональная.

Квадрат коэффициента корреляцииr2 представляет собой коэффициент детерминации,который показывает долю вариации результативного признака, объясненную влиянием вариации факторного признака.

Для оценки существенности (значимости) линейного коэффициентакорреляции используется тот факт, что величина при условии отсутствия связи в генеральной совокупности распределена по закону Стьюдента с (n-2) степенями свободы (где n – объем выборки). Полученную tрасч сравнивают табличным значением. Коэффициент корреляции признается значимым при уровне значимости , если tрасч>tтабл. В этом случае практически невероятно, что найденное значение коэффициента корреляции обусловлено только случайными совпадениями. Уровень значимости показывает вероятность принятия ошибочного решения, например, при =0,05 в среднем пяти случаях из ста есть риск сделать ошибочное заключение о значимости коэффициента корреляции (в социально-экономических исследованиях обычно =0,1, =0,05 или =0,01).

ПЗ 2.Отыскание параметров выборочного уравнения прямой линии среднеквадратичной регрессии по несгруппированным данным

Задачи регрессионного анализа:

1. установление формы зависимости

2. определение функции регрессии

3. использование уравнения для оценки неизвестных значений зависимой переменной

Важнейшим этапом построения регрессионной модели является установление математической функции, которая лучше других выражает реальные связи между анализируемыми признаками. Выбор типа функции может опираться на теоретические знания об изучаемом явлении, опыт предыдущих аналогичных исследований, или осуществляться эмпирически – перебором и оценкой функций разных типов и т.п.

Уравнение однофакторной парной линейной корреляционной связи имеет вид:

=a0+a1x,

где – теоретические значения результативного признака, полученные по уравнению регрессии;

a0, a1 – параметры уравнения регрессии

Параметры уравнения a0, a1 находят посредством МНК, при котором в качестве решения принимается точка минимума суммы квадратов отклонений эмпирических данных yi от теоретических i, рассчитанных по модели, т.е.

Σ(yi - i)2 à min

Для нахождения минимума данной функции, ее частные производные приравнивают нулю и получают систему нормальных уравнений:

na0 + a1 Σx= Σy

a0 Σx+ a1 Σx2= Σxy

Решая систему в виде, получают значения параметров уравнения.

Параметр a1 называется коэффициентом регрессии. Его можно найти также по формуле:

Коэффициент регрессии a1 показывает, насколько в среднем изменяется величина результативного признака (в его единицах измерения) при изменении факторного признака на единицу.

Параметр a0 показывает усредненное влияние прочих факторов на результативный признак. Параметр a0 связан с коэффициентом регрессии a1 соотношением

Коэффициент регрессии a1 применяется также для расчета коэффициента эластичности, который показывает, на сколько процентов изменится величина результативного признака при изменении факторного признака на 1%:

 

ПЗ 4.Простейшие случаи криволинейной корреляции.

Если между исследуемыми явлениями существуют нелинейные соотношения, то они выражаются с помощью соответствующих нелинейных функций.

Различают два класса нелинейных регрессий:

1. Регрессии, нелинейные относительно включенных в анализ объясняющих переменных, но линейные по оцениваемым параметрам, например

– полиномы различных степеней – , ;

– равносторонняя гипербола – ;

– полулогарифмическая функция – .

2. Регрессии, нелинейные по оцениваемым параметрам, например

– степенная – ;

– показательная – ;

– экспоненциальная – .

Регрессии нелинейные по включенным переменным приводятся к линейному виду простой заменой переменных, а дальнейшая оценка параметров производится с помощью метода наименьших квадратов. Рассмотрим некоторые функции.

Парабола второй степени приводится к линейному виду с помощью замены: . В результате приходим к двухфакторному уравнению , оценка параметров которого при помощи МНК приводит к системе следующих нормальных уравнений:

А после обратной замены переменных получим

Парабола второй степени обычно применяется в случаях, когда для определенного интервала значений фактора меняется характер связи рассматриваемых признаков: прямая связь меняется на обратную или обратная на прямую.

Равносторонняя гипербола может быть использована для характеристики связи удельных расходов сырья, материалов, топлива от объема выпускаемой продукции, времени обращения товаров от величины товарооборота, процента прироста заработной платы от уровня безработицы, расходов на непродовольственные товары от доходов или общей суммы расходов и в других случаях. Гипербола приводится к линейному уравнению простой заменой: . Система линейных уравнений при применении МНК будет выглядеть следующим образом:

Аналогичным образом приводятся к линейному виду зависимости , и другие.

Несколько иначе обстоит дело с регрессиями нелинейными по оцениваемым параметрам, которые делятся на два типа: нелинейные модели внутренне линейные (приводятся к линейному виду с помощью соответствующих преобразований, например, логарифмированием) и нелинейные модели внутренне нелинейные (к линейному виду не приводятся).

К внутренне линейным моделям относятся, например, степенная функция – , показательная – , экспоненциальная – , логистическая – , обратная – .

К внутренне нелинейным моделям можно, например, отнести следующие модели: , .

Среди нелинейных моделей наиболее часто используется степенная функция , которая приводится к линейному виду логарифмированием:

;

;

,

где . Т.е. МНК мы применяем для преобразованных данных:

а затем потенцированием находим искомое уравнение.

Уравнение нелинейной регрессии, так же, как и в случае линейной зависимости, дополняется показателем тесноты связи. В данном случае это индекс корреляции:

,

где – общая дисперсия результативного признака , – остаточная дисперсия.

Величина данного показателя находится в пределах: . Чем ближе значение индекса корреляции к единице, тем теснее связь рассматриваемых признаков, тем более надежно уравнение регрессии.

Квадрат индекса корреляции носит название индекса детерминации и характеризует долю дисперсии результативного признака , объясняемую регрессией, в общей дисперсии результативного признака:

,

т.е. имеет тот же смысл, что и в линейной регрессии; .

Индекс детерминации можно сравнивать с коэффициентом детерминации для обоснования возможности применения линейной функции. Чем больше кривизна линии регрессии, тем величина меньше . А близость этих показателей указывает на то, что нет необходимости усложнять форму уравнения регрессии и можно использовать линейную функцию.

Индекс детерминации используется для проверки существенности в целом уравнения регрессии по -критерию Фишера:

,

где – индекс детерминации, – число наблюдений, – число параметров при переменной . Фактическое значение -критерия (5.5) сравнивается с табличным при уровне значимости и числе степеней свободы (для остаточной суммы квадратов) и (для факторной суммы квадратов).

О качестве нелинейного уравнения регрессии можно также судить по средней ошибке аппроксимации, которая, так же как и в линейном случае, вычисляется по формуле , которая определяется как среднее отклонение полученных данных от фактических и должна не превышать 10%.