Оценка достоверности результатов измерений

Сущность этого метода заключается в том, что по некоторой выборке устанавливается интервал, в котором с заданной вероятностью содержится значение исследуемого параметра генеральной совокупности.

Вероятность Р,признаннаядостаточной для уверенного суждения об исследуемом параметре генеральной совокупности на основании выборочных показателей,называетсядоверительной. Выбор того или иного значения доверительной вероятности осуществляется исходя из практических соображений и той ответственности, с которой делаются выводы о параметрах генеральной совокупности. В особенно ответственных медицинских экспериментах выбирают P= 0,999; в остальных случаях P= 0,95.

Алгоритм данного метода заключается в выполнении следующих операций:

1. Определяют по формуле (1) среднее арифметическое результатов измерений исследуемой выборки.

2. По формуле (2) находят среднее квадратическое отклонение s отдельного результата измерения.

3. Определяют по формуле (3) стандартную ошибку m.

4. Вычисляют точность измерения (доверительные пределы ошибки):

(4)

где tn,p - критерий Стьюдента, зависящий от числа степеней свободы n = n - 1 и выбранной доверительной вероятности P=0,95; 0,99 или 0,999. Критерий Стьюдента находят по таблице 1 (см. стр.14).

5. Определяют доверительный интервал, в котором с наперед заданной доверительной вероятностью P находится результат измеряемой величины X:

(5)

Выражение (5) означает, что значение исследуемого параметра Х с выбранной доверительной вероятностью P не выйдет за пределы интервала [ - Dm , + Dm], т.е.

(6)

Задание № 1.

При анализах крови больного, взятых за 10 дней, получены следующие показатели гемоглобина:

X1 X2 X3 X4 X5 X6 X7 X8 X9 X10
11,4 11,8 12,0 10,8 8,4 10,6 10,0 8,2 9,8 11,8

Необходимо найти:

· среднее арифметическое этих показателей;

· среднее квадратическое отклонение s;

· стандартную ошибку m;

· критерий Стьюдента tn,p при доверительной вероятности P=0,95;

· доверительный интервал, в котором находится истинное значение показателя.

СРАВНЕНИЕ ДВУХ ВЫБОРОК

 

Типовой задачей анализа данных в медико-биологических исследованиях является установление совпадений или различий характеристик экспериментальной и контрольной группы. Например, необходимо сравнить значения каких-то параметров до и после лечения, в процессе старения организма и т.п. Используя данный метод, можно установить, вызваны ли отличия двух независимых выборок случайными факторами или они обусловлены определённым воздействием, в том числе лечебным.

Для этого формулируются статистические гипотезы:

- гипотеза об отсутствии различий (так называемая нулевая гипотеза);

- гипотеза о значимости различий (так называемая альтернативная гипотеза).

Для принятия решений о том, какую из гипотез (нулевую или альтернативную) следует принять, используют решающие правила – статистические критерии35. То есть, на основании информации о результатах наблюдений (характеристиках членов экспериментальной и контрольной группы) вычисляется число, называемое эмпирическим значением критерия. Это число сравнивается с известным (например, заданным таблично) эталонным числом,

называемым критическим значением критерия.

Критические значения приводятся, как правило, для нескольких уровней значимости. Уровнем значимости называется вероятность ошибки, заключающейся в отклонении (не принятии) нулевой гипотезы, когда она верна, то есть вероятность того, что различия сочтены существенными, а они на самом деле случайны.

Обычно используют уровни значимости (обозначаемые a), равные 0,05, 0,01 и 0,001. В медико-биологических экспериментальных исследованиях обычно ограничиваются значением 0,05, то есть, грубо говоря, допускается не более чем 5%-ая возможность ошибки.

Если полученное исследователем эмпирическое значение критерия оказывается меньше или равно критическому, то принимается нулевая гипотеза – считается, что на заданном уровне значимости (то есть при том значении a, для которого рассчитано критическое значение критерия) характеристики экспериментальной и контрольной групп совпадают. В противном случае, если эмпирическое значение критерия оказывается строго больше критического, то нулевая гипотеза отвергается и принимается альтернативная гипотеза – характеристики экспериментальной и контрольной группы считаются различными с достоверностью различий 1 – a. Например, если a = 0,05 и принята альтернативная гипотеза, то достоверность различий равна 0,95 или 95%. То есть, достоверность различия характеристик – это дополнение до единицы уровня значимости при проверке гипотезы о совпадении характеристик двух независимых выборок. Другими словами, чем меньше эмпирическое значение критерия (чем левее оно находится от критического значения), тем больше степень совпадения характеристик сравниваемых объектов. И наоборот, чем больше эмпирическое значение критерия (чем правее оно находится от критического значения), тем сильнее различаются характеристики сравниваемых объектов.

В дальнейшем мы ограничимся уровнем значимости a = 0,05, поэтому, если эмпирическое значение критерия оказывается меньше или равно критическому, то можно сделать вывод, что «характеристики экспериментальной и контрольной групп совпадают на уровне значимости 0,05». Если эмпирическое значение критерия оказывается строго больше критического, то можно сделать вывод, что «достоверность различий характеристик экспериментальной и контрольной групп равна 95%».

Рассмотрим алгоритм сравнения 2-ух выборок при помощи критерия Стьюдента:

1. Определяют средние арифметические значения для первой и второй группы:

 
 

 


2. Определяют средние квадратические отклонения отдельных измерений в группах:

       
 
 
 

 

 


 

 

3. Определяют стандартные ошибки средних:

       
 
 
 

 


 

4. Находят абсолютное значение разности средних арифметических опытной и контрольной групп:

 

5. Вычисляют среднюю ошибку разности:

 
 

 


6. Определяют критерий достоверности разности:

 
 

 

 


7. Находят число степеней свободы по формуле:

 
 


8. Из таблицы 1 для числа степеней свободы n находят значения трех стандартных критериев Стьюдента tst , соответствующих трем порогам достоверности: 0,95; 0,99 и 0,999.

9. Сравнивают критерий достоверности разности td с табличными значениями критериев Стьюдента tst0,95, tst0,99, tst0,999.

Если расчётное значение td будет больше стандартного tst, то различия между выборками считаются значимыми c определённой вероятностью, иначе говоря, если окажется, что:

· td ³ tst0,999 , то выборочная разность d достоверна с вероятностью Р = 0,999;

· tst0,99 £ td < tst0,999 , то выборочная разность d достоверна с вероятностью Р =0,99;

· tst0,95 £ td < tst0,99 , то выборочная разность d достоверна с вероятностью Р= 0,95;

· td < tst0,95 , то выборочная разность недостоверна, т.е. различия в выборках случайны и для дальнейшего исследования необходимы дополнительные измерения с большим n.

 

Однако для проверки гипотезы о совпадении характеристик двух групп целесообразно использование либо критерия Крамера-Уэлча (Критерий Крамера-Уэлча является более эффективным «заменителем» такого известного в физике и технике критерия как t-критерий (критерий Стьюдента), либо критерия Вилкоксона-Манна-Уитни.

Критерий Крамера-Уэлча. Эмпирическое значение данного критерия рассчитывается на основании информации об объемах N и М выборок x и y, выборочных средних x и y и выборочных дисперсиях sx2 и sy2 сравниваемых выборок (эти значения могут быть вычислены вручную по формулам или с помощью Microsoft Excel для Windows) по следующей формуле:

Алгоритмопределения достоверности совпадений и различий характеристик сравниваемых выборок для экспериментальных данных, измеренных в шкале отношений, с помощью критерия Крамера-Уэлча заключается в следующем:

1. Вычислить для сравниваемых выборок Tэмп – эмпирическое значение критерия Крамера-Уэлча по формуле.

2. Сравнить это значение с критическим значением T0.05 = 1,96: если Tэмп1,96, то сделать вывод: «характеристики сравниваемых выборок совпадают на уровне значимости 0,05»; если Tэмп > 1,96, то сделать вывод «достоверность различий характеристик сравниваемых выборок составляет 95%».

Отметим, что мы не рассматриваем вопрос о том, «в какую сторону» экспериментальная группа отличается от контрольной, то есть, улучшились или ухудшились (с содержательной точки зрения, не имеющей отношения к статистическим методам и являющейся прерогативой биологии и медицины) исследуемые характеристики.

Задание № 2.

Имеется две выборки результатов измерений скорости кровотока 10 пациентов до и после наркоза:

До наркоза

Х1 Х2 Х3 Х4 Х5 Х6 Х7 Х8 Х9 Х10
11,2 11,0 10,9 11,22 11,4 11,0 11,1 11,3 11,2 11,3

 

После наркоза

Y1 Y2 Y3 Y4 Y5 Y6 Y7 Y8 Y9 Y10
11,0 10,8 10,9 10,85 10,9 11,0 10,8 10,76 10,7 10,6

 

Необходимо установить: влияет ли наркоз на скорость кровотока? Оцените различие двух выборок критериями Стьюдента и Крамера-Уэлча.

 

ИССЛЕДОВАНИЕ ЗАВИСИМОСТЕЙ

Рассмотренные в предыдущих разделах описательная статистика и статистические критерии позволяли, соответственно, компактно представлять полученные результаты и определять сходства и различия, то следующим этапом анализа данных обычно является исследование зависимостей. Для этих целей применяются корреляционный анализ и дисперсионный анализ (для установления факта наличия/отсутствия зависимости между переменными), а также регрессионный анализ (для нахождения количественной зависимости между переменными).

 

Корреляционный анализ

Вообще, в природе, и в медицине в частности, существуют вполне определённые связи признаков. Например, связь между строением тела и предрасположенностью к тем или иным заболеваниям, связь между телосложением и темпераментом.

Наиболее простым видом связи между величинами является функциональная зависимость, когда какая-либо величина определяется как однозначная функция другой или нескольких других величин. Иными словами, функциональная связь – это такая связь между переменными, при которой каждому значению одной величины соответствуют строго определённые значения другой. Например, к функциональной относится зависимость между высотой местности и насыщением гемоглобина кислородом.

Однако, нередко встречаются и такие связи между величинами, которые нельзя отнести к функциональным зависимостям. К ним, например, относятся связи между урожаем и количеством осадков или между ростом отцов и сыновей. Известно, что между ростом и массой тела человека существует положительная связь, т.е. более высокие люди обычно имеют большую массу, но бывают и исключения.

Если связь между показателями проявляется не в каждом случае, а заметна лишь при многократном сопоставлении рассматриваемых признаков, то её называют корреляционной (от лат. correlatio – связь, соответствие).

Корреляция (Correlation) – связь между двумя или более переменными (в последнем случае корреляция называется множественной). Цель корреляционного анализа – установление наличия или отсутствия этой связи.

Корреляционная зависимость характеризуется тем, что каждому значению одной величины соответствует множество возможных значений другой величины. Например, при росте человека 170 см масса тела может быть 70 кг, 65 кг, 72 кг и т.д. Случайный разброс этих возможных значений объясняется влиянием большого числа дополнительных факторов, от которых отвлекаются, изучая связь между данными величинами.

Пусть сделаны измерения двух признаков Х и У: Х1, Х2,...,Хn и У1, У2,...,Уn.

Необходимо установить,существует ли связь между изменениями признаков Х и У и, если эта связь существует, то определить её тип, глубину и достоверность.

Для качественной оценки связи между признаками строят график.

Экспериментальные графики для величин Х и У, находящихся в корреляционной зависимости, состоят из ряда точек, не укладывающихся на какую-либо определённую кривую. Каждая точка (x,y) на плоскости отображает результат одного измерения. Такой точечный график называют корреляционным полем. По корреляционному полю можно качественно оценить наличие или отсутствие зависимости и указать положительна она или отрицательна. Количественная оценка. В случае, когда имеются две переменных, значения которых измерены в цифровой шкале отношений (единицы измерений при этом не важны – например, масса тела может быть измерена в граммах, килограммах, тоннах – они не влияют на значение коэффициента корреляции), используется коэффициент линейной корреляции Пирсона r, который принимает значения от -1 до +1 (нулевое его значение свидетельствует об отсутствии корреляции.

Рис. 3. Величины коэффициента линейной корреляции в различных

ситуациях

Проанализировав знак коэффициента корреляции, определяют тип корреляционной связи:

если r > o, то связь прямая (положительная), т.е. при возрастании одной величины другая в среднем тоже возрастает;

если r < o, то связь обратная (отрицательная), т.е. при возрастании одной величины другая имеет тенденцию в среднем убывать.

Если статистическая связь между признаками отсутствует, то r = 0.

Величина коэффициента корреляции показывает глубину линейной связи между двумя выборками, т.е. характеризует степень близости зависимости величин X и Y к линейной функциональной зависимости. Графически это выражается теснотой или разбросанностью точек корреляционного поля.

Глубина корреляционной связи определяется, исходя из следующих критериев:

если 0< |r| £0,3, то связьслабая;

если 0,3< |r| £0,5, то связь умеренная;

если 0,5< |r| £0,7, то связь значительная;

если 0,7< |r| £0,9, то связь сильная;

если 0,9< |r| <1, то связь очень сильная.

При |r| =1 связь между величинами функциональная.

Таким образом, чем ближе абсолютная величина r к единице, тем сильнее связь между признаками и теснее расположены точки на графике.

Однако, для обоснованного вывода о наличии связи не достаточно анализа величины коэффициента корреляции; необходимо проверить его достоверность. Иными словами, требуется ответить на вопрос: является ли вычисленный по данным наблюдений коэффициент корреляции значимым, т.е. можно ли верить полученному значению коэффициента, учитывая случайный характер выборок значений исследуемых величин.

Значимость корреляционной связи при определённом уровне доверительной вероятности можно проверить с помощью критерия Стьюдента.

В случаелинейной корреляции между признаками Х и У алгоритм расчетов по данному методу следующий:

1. Вычисляют средние арифметические значения обоих признаков:

       
 
 
 

 

 


 

2. Вычисляют отклонения каждого значения xi от

 
 

 


3. Вычисляют отклонения каждого значения yi от у:

 
 

 


4. Вычисляют сумму произведений отклонений:

 
 

 

 


5. Вычисляют произведение сумм квадратов отклонений:

 
 

 

 


6. Определяют коэффициент r линейной парной корреляции по формуле:

 

 


7. Оценивают тип и глубину корреляционной связи между признаками Х и У.

8. Вычисляют среднюю ошибку коэффициента корреляции:

 

 


где n - число коррелирующих пар.

9. Определяют критерий достоверности коэффициента корреляции:

 
 

 

 


10. Из таблицы 1 для числа степеней свободы n = n - 2 определяют стандартные значения критериев Стьюдента, соответствующие трем порогам достоверности: 0,95; 0,99; 0,999.

11. Сравнивают критерий достоверности tr со стандартными значениями критериев Стьюдента и делают вывод о достоверности коэффициента корреляции:

· если tr ³ tst0,999 , то достоверность коэффициента корреляции 99,9%;

· если tr ³ tst0,99 , то достоверность коэффициента корреляции 99%;

· если tr ³ tst0,95 , то достоверность коэффициента корреляции 95%;

· если tr < tst0,95 , то коэффициент корреляции недостоверен, доверять ему нельзя.

 

Задание № 3.

В ходе обследования 9 пациентов среди прочих показателей измеряли их рост и вес. Результаты измерений приведены в таблице:

 

Xi Рост, см
Yi Вес, кг

 

Необходимо провести корреляционный анализ между весом и ростом пациентов. Построить корреляционное поле.

 

Коэффициент корреляции Пирсона также может быть вычислен в программе Excel: «Сервис\Анализ данных\Корреляция». Отметим, что коэффициент корреляции Пирсона симметричен, то есть не зависит от перестановки переменных: r(x0, x) = r(x, x0).

Универсальных рецептов установления корреляции между немонотонно и нелинейно связанными переменными на сегодняшний день не существует.

Отметим, что большое (близкое к плюс единице или к минус единице) значение коэффициента корреляции говорит о связи переменных, но ничего не говорит о причинно-следственных отношениях между ними. Так, например, из высокой корреляции температуры воздуха за окном и времени суток нельзя делать вывод о том, что движение солнца обусловлено изменениями температуры воздуха.

Итак, корреляционный анализ позволяет устанавливать наличие или отсутствие зависимости между переменными. Другим инструментом, дающим ответ на этот вопрос, является дисперсионный анализ, который не является предметом рассмотрения данной работы.

 

Регрессионный анализ

Если корреляционный и дисперсионный анализ дают ответ на вопрос, существует ли взаимосвязь между переменными, то регрессионный анализ предназначен для того, чтобы найти «явный вид» этой зависимости.

Цель регрессионного анализа – найти функциональную зависимость между переменными. Для этого предполагается, что зависимая переменная (иногда называемая откликом) определяется известной функцией (иногда говорят – моделью), зависящей от зависимой переменной или переменных (иногда называемых факторами) и некоторого параметра. Требуется найти такие значения этого параметра, чтобы полученная зависимость (модель) наилучшим образом описывала имеющиеся экспериментальные данные.

Рассмотрим геометрическую интерпретацию этого вопроса. Перенесём имеющийся набор экспериментальных точек на плоскость, и, тем самым, построим корреляционное поле. Нам необходимо провести линию, которая наилучшим образом отображает закон размещения опытных точек. Эта линия должна проходить как можно ближе по отношению ко всем точкам корреляционного поля. Называют её линией регрессии. Поскольку здесь мы рассматриваем самый простой вид корреляционной зависимости – линейную корреляцию, то линией регрессии будет прямая, а уравнение прямой, как известно, можно записать в виде Y=AX+B.

 

Y

                                             
   
     
 
     
 
   
 
     
 
     
 
       
 
     
 
 
     
 
 
   


Yi

 

       
   
 
 

 

 


0 Xi X

 

Рис. 4. Корреляционное поле с линией регрессии.

Например, в простой линейной регрессии предполагается, что зависимая переменная y является линейной функцией y = a x + b от независимой переменной x. Требуется найти значения параметров a и b, при которых прямая a x + b будет наилучшим образом описывать (аппроксимировать) экспериментальные точки (x1, y1), (x2, y2), …, (xn, yn).Для поиска параметров обычно используют метод наименьших квадратов – ищут такие значения параметров, чтобы сумма по всем экспериментальным точкам квадратов расстояний (по вертикали) от них до построенной зависимости была минимальной. Линейной регрессионной моделью для двух случайных величин X и Y будем называть уравнение вида Y=AX+B, где A и B – коэффициенты регрессии, которые определяются по выборке наблюдений случайных величин X и Y.

Используя один из математических методов, было доказано, что коэффициенты регрессии вычисляются по формулам:

 

       
 
 


(22)

 

где xi и yi - элементы выборок (i=1,...,n).

Регрессионный анализ, помимо того, что он позволяет количественно описывать зависимость между переменными, дает возможность прогнозировать значения зависимых переменных – подставляя в найденную формулу значения независимых переменных, можно получать прогноз значений зависимых.

 

Задание №4.

Имеются данные измерений роста X (см) и веса Y (кг) новорождённых:

 

Xi
Yi 3,2 2,9 3,3 2,6 3,1 3,5 3,0 3,7 3,8 3,4 4,1 3,5 4,0 3,7 3,6

 

Проведите регрессионный анализ: составьте уравнение линейной регрессии и таблицу наилучшего соответствия веса для роста: 50, 51 и 52 см. Оцените вес ребенка ростом 55 см.

 

Простая линейная регрессия может быть построена и в программе Excel для Windows («Сервис\Анализ данных\Регрессия»).

Можно использовать полиномиальную регрессию, в которой предполагается, что зависимая переменная является полиномом некоторой степени от независимой переменной (напомним, что линейная зависимость является полиномом первой степени). Например, полиномом второй степени будет зависимость вида

y = a x2 + b x + c и задачей регрессии будет нахождение коэффициентов a, b и c.

При этом следует помнить, что построенная модель «локальна», то есть, получена для некоторых вполне конкретных значений переменных. Экстраполяция результатов модели на более широкие области значений переменных может привести к ошибочным выводам. Например, если моделировать эндотоксикоз путем повреждения ткани поджелудочной железы, то к токсическому компоненту присоединится банальный протеолитический компонент от ферментов разрушающейся железы. Соответствующие крайне высокие значения прогнозироваться данной моделью на основе регрессионного анализа, естественно, не будут. При хроническом токсическом процессе необратимые изменения в печени и почках по-иному будут воздействовать на формирование пула, занижая значения показателя, предсказанные формулой регрессии.


Таблица 1

Граничные значения t - критерия Стьюдента

 

Число степеней свободы Доверительная вероятность
n P=0,95 P=0,99 P=0,999
12,706 63,657 636,619
4,303 9,925 31,598
3,182 5,841 12,941
2,776 4,604 8,610
2,571 4,032 6,859
2,447 3,707 5,959
2,365 3,499 5,405
2,306 3,355 5,041
2,262 3,250 4,781
2,228 3,169 4,587
2,201 3,106 4,487
2,179 3,055 4,318
2,160 3,012 4,221
2,145 2,977 4,140
2,131 2,947 4,073
2,120 2,921 4,015
2,110 2,898 3,965
2,101 2,878 3,922
2,093 2,861 3,883
2,086 2,845 3,850
2,080 2,831 3,819
2,074 2,819 3,792
2,069 2,807 3,767
2,064 2,797 3,745
2,060 2,787 3,725
2,056 2,779 3,707
2,052 2,771 3,690
2,048 2,763 3,674
2,045 2,756 3,659
2,042 2,750 3,646
31-34 2,0 2,7 3,6
35-42 2,0 2,7 3,6
43-62 2,0 2,7 3,5
63-175 2,0 2,6 3,4
более 175 2,0 2,6 3,3
  a=0,05 a=0,01 a=0,001
  Уровень значимости

Таблица даёт значения введённой Стьюдентом величины t для уровней значимости a, наиболее часто применяющихся при нахождении критериев значимости и границ доверительного интервала.

Доверительная вероятность P=1- a.