Дано значение коэффициента корреляции между X и Y. Найти R(квадрат)

R(квадрат) = [R(X,Y)]^2

То есть нужно просто коэффициент корреляции просто возвести в квадрат:-)

Билет № 58 Дано значение коэффициента корреляции между Yˆ и Y. Найти R2.

Формула для нахождения R2:

,

где , .

Иными словами просто возводите этот коэффициент в квадрат.

На всякий случай формула коэффициента корреляции между Yˆ и Y:

 

 

Билет № 59 Дано уравнение парной линейной регрессии. Даны выборочные оценки дисперсии иксов и игреков. Найти R2.

Если использовать выборочную оценку значений соответствующих дисперсий, то получим формулу для выборочного коэффициента детерминации (который обычно и подразумевается под коэффициентом детерминации):

, , т.к. TSS = ESS + RSS

RSS =

TSS=

ESS =

 

 

TSS- Total Sum of Squares - полная сумма квадратов

ESS - Explained Sum of Squares - - «объясненная» сумма квадратов

RSS - Residual Sum of Squares - «оставшаяся» сумма квадратов

 

TSS= RSS+ ESS

или =

или

Тогда выражение для коэффициента детерминации можно представить в виде:

 

Даны значения RSS и ESS, число наблюдений и число предикторов в регрессии. Проверить гипотезу о качестве модели на основе статистики Фишера.

Дано значение R2, число наблюдений и число предикторов в регрессии. Проверить гипотезу о качестве модели на основе статистики Фишера.

 

Ho : R2= 0 vs H1 : R2 не равно 0

для проверки значисмости R2 (выборочный) используется специальная статистика Фишера

f(R2 ) = F (статистика Фишера)

 

(**) F= ((ESS/ТSS) *1/k) / ((RSS/TSS) * 1/N-k) = ((1/k-1) * R2)) /(( 1/N-k) * (1- R2 ) )

k- число оцениваемых параметров модели (предикаторов)

N – число наблюдений

 

При верности Ho: F ~ F ( k-1; N-k)

 

Распределение Фишера (связано с нормальным)

F (k,m) = (1/k * χ² (k)) / (1/m * χ² (m))

χ² (k) = ∑z² , где Z ~ N (0,1) z – это стандартная нормальная величина

 

Считаем F по формуле (**), если попало в критическую зону, то R2 отличен от нуля

R2 =1, если наша регрессионная прямая прошла через все точки, хорошая модель

чем больше R2 , тем лучше модель

Дан t-статистика, проверить гипотезу с помощью Фишера.

 

Гипотеза:

Н0: B0=0

H1: B1не равна 0.

 

Связь между F-критерием Фишераи t-статистикой Стьюдентавыражается равенством

 

Если tтабл < tфакт,то Hо отклоняется, т.е. а, b и rxy не случайно от­личаются от нуля н сформировались под влиянием систематически действующего фактора x, Если tтабл > tфакт то гипотеза Нo не откло­няется

 

Дана таблица дисперсионного анализа. Заполнить пропуски в таблице.

Таблица состоит из значений TSS, RSS, ESS.

TSS (Total) = RSS (остатки) + ESS (модель регрессии)

TSS = ∑(yi – yсреднее)2

ESS = ∑(yкрышка – yсреднее)2

RSS = ∑(yi – yкрышка)2

reg dem_2000 cli gini_ye

Дана таблица выдачи регрессионного анализа. Запишите полученное уравнение регрес-сии

Source | SS df MS Number of obs = 25

-------------+------------------------------ F( 2, 22) = 13.86

Model | 6.88491132 2 3.44245566 Prob > F = 0.0001

Residual | 5.46595999 22 .248452727 R-squared = 0.5574

-------------+------------------------------ Adj R-squared = 0.5172

Total | 12.3508713 24 .514619638 Root MSE = .49845

 

------------------------------------------------------------------------------

dem_2000 | Coef. Std. Err. t P>|t| [95% Conf. Interval]

-------------+----------------------------------------------------------------

cli | .3920828 .0807622 4.85 0.000 .2245922 .5595733

gini_ye | .0022019 .0182327 0.12 0.905 -.0356105 .0400143

_cons | -.7912347 .7457838 -1.06 0.300 -2.337896 .7554263

------------------------------------------------------------------------------

 

 

Уравнение регрессии:

dem_2000 = - 0,79 + 0,39*cli + 0,002*gini_ye + εi

 

65,66

67. Какова природа проблемы мультиколлинеарности в задачах множественной регрессии?

Природа проблемы мультиколлинеарности заключается в наличии сильных корреляционных связей между независимыми переменными, которые приводят к линейной зависимости нормальных уравнений.

 

68.К чему ведет мультиколлинеарность?

Мультиколлинеарность — наличие линейной зависимости между независимыми переменными регрессионной модели. При этом различают полную коллинеарность, которая означает наличие тождественной линейной зависимости переменных и мультиколлинеарность — наличие сильной корреляции между переменными.

Если полная коллинеарность приводит к неопределенности значений параметров, то частичная мультиколлинеарность приводит к неустойчивости их оценок. Неустойчивость выражается в увеличении статистической неопределенности — дисперсии оценок. Это означает, что конкретные результаты оценки могут сильно различаться для разных выборок несмотря на то, что выборки однородны

69.Назовите хотя бы 1 способ выявления мультиколлинеарности:

- Исследоване матрицы Х'Х.Если определитель матрицы Х'Хблизок к нулю, то этосвидетельствует о наличии мультиколлинеарности.

- Анализ матрицы коэффициентов парной корреляции. Считают явление мультиколлинеарности в исходных данных установленным, если коэффициент парной корреляции между двумя переменными больше 0,8