Граничные (критические) значенияχ2-критерия, соответствующие разным вероятностям допустимой ошибки и разным степеням свободы

Число степеней свободы (m-1) Вероятность допустимой ошибки
0,05 0,01 0,001
3,84 6,64 10,83
5,99 9,21 13,82
7,81 11,34 16,27
9,49 13,28 18,46
11,07 15,09 20,52
12,59 16,81 22,46
14,07 18,48 24,32
15,51 20,09 26,12
16,92 21,67 27,88
18,31 23,21 29,59
19,68 24,72 31,26
21,03 26,05 32,91
22,36 27,69 34,53
23,68 29,14 36,12
25,00 30,58 37,70

 

Иногда в психолого-педагогическом эксперименте возникает необходимость сравнить дисперсии двух выборок для того, чтобы решить, различаются ли эти дисперсии между собой. Допустим, что проводится эксперимент, в котором проверяется гипотеза о том, что одна из двух предлагаемых программ или методик обучения обеспечивает одинаково успешное усвоение знаний учащимися с разными способностями, а другая программа или методика этим свойством не обладает. Демонстрацией справедливости такой гипотезы было бы доказательство того, что индивидуальный разброс оценок учащихся по одной программе или методике больше (или меньше), чем индивидуальный разброс оценок по другой программе или методике.

Подобного рода задачи решаются, в частности, при помощи критерия Фишера. Его формула выглядит следующим образом:

 

 

где n1 — количество значения признака в первой из сравниваемых выборок; n2 — количество значений признака во второй из сравниваемых выборок; (n1—1, n21)число степеней свободы; -дисперсия по первой выборке; дисперсия по второй выборке,

Вычисленное с помощью этой формулы значение F-критерия сравнивается с табличным (табл. 3), и если оно превосходит табличное для избранной вероятности допустимой ошибки и заданного числа степеней свободы, то делается вывод о том, что гипотеза о различиях в дисперсиях подтверждается. В противоположном случае такая гипотеза отвергается и дисперсии считаются одинаковыми.*

* Если отношение выборочных дисперсий в формуле F-критерия оказывается меньше единицы, то числитель и знаменатель в этой формуле меняют местами и вновь определяют значения критерия.

 

 

Таблица 3

Граничные значения F-критерия для вероятности допустимой ошибки 0,05 и числа степеней свободы n1 и n2:

n1; n2
9,28 9,91 9,01 8,94 8,84 8,74 8,69 8,64 8,58
6,59 6,39 6,26 6,16 6,04 5,91 5,84 5,77 5,70
5,41 - 5,19 5,05 4,95 4,82" 4,68 4,60 4,58 4,44
4,76 4,53 4,39 4,28 4,15 4,00 3,92 3,84 3,75
4,07 3,84 3,69 3,58 3,44 3,28 3,20 3,12 3,03
3,49 3,26 3,11 3,00 2,85 2,69 2,60 2,50 2,40
3,24 3,0 2,85 2,74 2,59 2,42 2,33 2,24 2,13
24. 3,01 2,78 2,62 2,51 2,36 2,18 2,09 1,98 1,86
2,79 2,56 2,40 2,29 2,13 1,95 1,85 1,74 1,60

Примечание.Таблица для граничных значений f-распределения приведенав сокращенном виде. Полностью ее можно найти в справочниках по математической статистике, в частности в тех, которые даны в списке дополнительной литературы к этой главе.

 

Пример.Сравним дисперсии следующих двух рядов цифр с целью определения статистически достоверных различий между ними Первый ряд: 4, 6, 5, 7, 3, 4, 5, 6. Второй ряд: 2, 7, 3, 6, 1, 8, 4 5 Средние значения для двух этих рядов соответственно равны: 5,0 и 4,5. Их дисперсии составляют: 1,5 и 5,25. Частное от деления большей дисперсии на меньшую равно 3,5. Это и есть искомый показатель F. Сравнивая его с табличным граничным значением 3,44, приходим к выводу о том, что дисперсии двух сопоставляемых выборок действительно отличаются друг от друга на уровне значимости более 95% или с вероятностью допустимой ошибки не более 0,05%.

Следующий метод вторичной статистической обработки, посредством которого выясняется связь или прямая зависимость между двумя рядами экспериментальных данных, носит название метод корреляций. Он показывает, каким образом одно явление влияет на другое или связано с ним в своей динамике. Подобного рода зависимости существуют, к примеру, между величинами, находящимися в причинно-следственных связях друг с другом. Если выясняется, что два явления статистически достоверно коррелируют друг с другом и если при этом есть уверенность в том, что одно из них может выступать в качестве причины другого явления, то отсюда определенно следует вывод о наличии между ними причинно-следственной зависимости.

Имеется несколько разновидностей данного метода: линейный, ранговый, парный и множественный. Линейный корреляционный анализ позволяет устанавливать прямые связи между переменными величинами по их абсолютным значениям. Эти связи графически выражаются прямой линией, отсюда название «линейный». Ранговая корреляция определяет зависимость не между абсолютными значениями переменных, а между порядковыми местами, или рангами занимаемыми ими в упорядоченном по величине ряду. Парный корреляционный анализ включает изучение корреляционных зависимостей только между парами переменных, а множественный, или многомерный, — между многими переменными одновременно. Распространенной в прикладной статистике формой многомерного корреляционного анализа является факторный анализ.

На рис. 4 в виде множества точек представлены различные виды зависимостей между двумя переменными X и Y (различные поля корреляций между ними).

На фрагменте рис. 4, отмеченном буквой А, точки случайным образом разбросаны по координатной плоскости. Здесь по величине X нельзя делать какие-либо определенные выводы о величине Y.

Рис. 4. Схематическое представление различных корреляционных зависимостей с соответствующими значениями коэффициента линейной корреляции (Цит. по: Иберла К. Факторный анализ. — М., 1980).

 

Если в данном случае подсчитать коэффициент корреляции, то он будет равен 0, что свидетельствует о том, что достоверная связь между X и Y отсутствует (она может отсутствовать и тогда, когда коэффициент корреляции не равен 0, но близок к нему по величине). На фрагменте Б рисунка все точки лежат на одной прямой, и каждому отдельному значению переменной X можно поставить в соответствие одно и только одно значение переменной Y, причем, чем больше X, тем больше Y. Такая связь между переменными X и Y называется прямой, и если это прямая, соответствующая уравнению регрессии, то связанный с ней коэффициент корреляции будет равен +1. (Заметим, что в жизни такие случаи практически не встречаются; коэффициент корреляции почти никогда не достигает величины единицы.)

На фрагменте В рисунка коэффициент корреляции также будет равен единице, но с отрицательным знаком: —1. Это означает обратную зависимость между переменными Х и Y, т. е., чем больше одна из них, тем меньше другая.

На фрагменте Г рисунка точки также разбросаны не случайно, они имеют тенденцию группироваться в определенном направлении. Это направление приближенно может быть представлено уравнением прямой регрессии. Такая же особенность, но с противоположным знаком, характерна для фрагмента Д. Соответствующие этим двум фрагментам коэффициенты корреляции приблизительно будут равны +0,50 и -0,50. Заметим, что крутизна графика, или линии регрессии, не оказывает влияния на величину коэффициента корреляции.

Наконец, фрагмент Е дает коэффициент корреляции, равный или близкий к 0, так как в данном случае связь между переменными хотя и существует, но не является линейной.

Коэффициент линейной корреляции определяется при помощи следующей формулы:

 

 

где хxy — коэффициент линейной корреляции;

— средние выборочные значения сравниваемых величин;

xi, yi — частные выборочные значения сравниваемых величин;

n2 — общее число величин в сравниваемых рядах показателей;

— дисперсии, отклонения сравниваемых величин от средних значений.

Пример. Определим коэффициент линейной корреляции между следующими двумя рядами показателей. Ряд I; 2, 4, 4, 5, 3, 6, 8. Ряд II: 2, 5, 4, 6, 2, 5, 7. Средние значения этих двух рядов соответственно равны 4,6 и 4,4. Их дисперсии составляют следующие величины: 3,4 и 3,1. Подставив эти данные в приведенную выше формулу коэффициента линейной корреляции, получим следующий результат: 0,92. Следовательно, между рядами данных существует значимая связь, причем довольно явно выраженная, так как коэффициент корреляции близок к единице. Действительно, взглянув на эти ряды цифр, мы обнаруживаем, что большей цифре и одному ряду соответствует большая цифра в другом ряду и, наоборот, меньшей цифре в одном ряду соответствует примерно такая же малая цифра в другом ряду.

К коэффициенту ранговой корреляции в психолого-педагогических исследованиях обращаются в том случае, когда признаки, между которыми устанавливается зависимость, являются качественно различными и не могут быть достаточно точно оценены при помощи так называемой интервальной измерительной шкалы. Интервальной называют такую шкалу, которая позволяет оценивать расстояния между ее значениями и судить о том, какое из них больше и насколько больше другого. Например, линейка, с помощью которой оцениваются и сравниваются длины объектов, является интервальной шкалой, так как, пользуясь ею, мы можем утверждать, что расстояние между двумя и шестью сантиметрами в два раза больше, чем расстояние между шестью и восемью сантиметрами. Если же, пользуясь некоторым измерительным инструментом, мы можем только утверждать, что одни показатели больше других, но не в состоянии сказать насколько, то такой измерительный инструмент называется не интервальным, а порядковым.

Большинство показателей, которые получают в психолого-педагогических исследованиях, относятся к порядковым, а не к интервальным шкалам (например, оценки типа «да», «нет», «скорее нет, чем да» и другие, которые можно переводить в баллы), поэтому коэффициент линейной корреляции к ним неприменим. В этом случае обращаются к использованию коэффициента ранговой корреляции, формула которого следующая:

 

 

где di — разница между рангами показателей одних и тех же испытуемых в упорядоченных рядах;

n — число испытуемых или цифровых данных (рангов) в коррелируемых рядах.

Пример.Допустим, что педагога-экспериментатора интересует, влияет ли интерес учащихся к учебному предмету на их успеваемость. Предположим, что с помощью некоторой психодиагностической методики удалось измерить величину интереса к учению и выразить его для десяти учащихся в следующих цифрах: 5, 6, 7, 8, 2, 4, 8, 7, 2, 9. Допустим также, что при помощи другой методики были определены средние оценки этих же учащихся по данному предмету оказавшиеся соответственно равными: 3,2; 4,0; 4,1; 4,2; 5,5; 5,0; 3,0; 4,8; 4,6; 2,4.

Упорядочим оба ряда оценок по величине цифр и припишем каждому из учащихся по два ранга; один из них указывает на то, какое место среди остальных данных ученик занимает по успеваемости, а другой — на то, какое место среди них же он занимает по интересу к учебному предмету. Ниже приведены ряды цифр, два из которых (первый и третий) представляют исходные данные, а два других (второй и четвертый слева) — соответствующие ранги.*

* Если исходные данные, которые ранжируются, одинаковы, то и их ранги также будут одинаковыми. Они получаются путем суммирования и деления пополам тех рангов, которые соответствуют этим данным.

 

2- 1,5 2,4- 1

2- 1,5 2,5-2

4-3 3,0- 3

5-4 3,2-4

6- 5 4,0- 5

7 - 6,5 4,1 - 6

7-6,5 4,2-7

8 - 8,5 4,6- 8

9 –10 5,0 - 10

 

Определив сумму квадратов различий в рангах ( ) и подставив нужное значение в числитель формулы, получаем, что коэффициент ранговой корреляции равен 0,97, т. е. достаточно высок, что и говорит о том, что между интересом к учебному предмету и успеваемостью учащихся действительно существует высоко статистически достоверная зависимость.

Однако по абсолютным значениям коэффициентов корреляции не всегда можно делать однозначные выводы о том, являются ли они значимыми, т. е. достоверно свидетельствуют о существовании зависимости между сравниваемыми переменными. Может случиться так, что коэффициент корреляции, равный 0,50, не будет достоверным, а коэффициент корреляции, составивший 0,30, — достоверным. Многое в решении этого вопроса зависит от того, сколько показателей было в коррелируемых друг с другом рядах признаков: чем больше таких показателей, тем меньшим по величине может быть статистически достоверный коэффициент корреляции.

В табл. 4 представлены критические значения коэффициентов корреляции для различных степеней свободы. (В данном случае степенью свободы будет число, равное п - 2, где п — количество данных в коррелируемых рядах.) Заметим, что значимость коэффициента корреляции зависит и от заданного уровня значимости или принятой вероятности допустимой ошибки в расчетах. Если, к примеру, коррелируется друг с другом два ряда цифр по 10 единиц в каждом и получен коэффициент корреляции между ними, равный 0,65, то он будет значимым на уровне 0,95 (он больше критического табличного значения, составляющего 0,6319 для вероятности допустимой ошибки 0,05, и меньше критического значения 0,7646 для вероятности допустимой ошибки 0,01).

Таблица 4