ормула полной вероятности и формула Байеса (с выводом). Условия применения.

Формула полной вероятности является следствием основных правил теории вероятностей: теорем сложения и умножения вероятностей. По правилу сложения вероятностей .По правилу умножения вероятностей P(HiÇA)=P(Hi)×P(A/Hi). Тогда полная вероятность события A: ,т.е. полная вероятность события A вычисляется как сумма произведений вероятности каждой гипотезы на условную вероятность события при этой гипотезе.Формула называется формулой полной вероятности. Она применяется в тех случая, когда опыт со случайным исходом распадается на два этапа: на первом “разыгрываются” условия опыта, а на втором – его результаты. Следствием правила умножения, и формулы полной вероятности является теорема гипотез или формула Байеса. С использованием формулы полной вероятности Формула называется формулой Байеса. Она позволяет пересчитывать вероятности гипотез в свете новой информации, состоящей в том, что опыт дал результат А.

7.) Последовательность независимых испытаний. Формула Бернулли. Асимптотические приближения формулы Бернулли – локальная и интегральная теоремы Муавра-Лапласа. ПОВТОРЕНИЕ НЕЗАВИСИМЫХ ОПЫТОВ. Несколько опытов называются независимыми, если вероятность исхода опыта не зависит от того, какие исходы имели другие опыты. Рассмотрим случай, когда вероятности исходов опытов постоянны и не зависят от номера опыта. Пусть один тот же опыт проводятся n раз. В каждом опыте некоторые события А1, А2, …, Аr появляется с вероятностями р1, р2, …, рп. Будем рассматривать не результат каждого конкретного опыта, а общее число появлений событий А1, А2, …, Аr . Рассмотрим случай с двумя возможными исходами опытов, т.е. в результате каждого опыта событие A появляется с вероятностью р и не появляется с вероятностью q=1-p. Вероятность P(n,k) того, что в последовательности из n опытов интересующее нас событие произойдет ровно k раз (безразлично, в какой последовательности), равна (формула Бернулли). Следствия из формулы Бернулли.Вероятность того, что событие А наступит менее k раз

Вероятность того, что событие наступит более k раз Вероятность того, что в n опытах схемы Бернулли, событие А появится от k1 до k2 раз Вероятность того, что в n опытах событие А появится хотя бы один раз, определяется формулой .Число к0, которому соответствует максимальная биномиальная вероятность , называется наивероятнейшим числом появления события А. При заданных n и p это число определяется неравенствами: . Теоремы Муавра-Лапласа. На практике приближенные формулы Муавра-Лапласа применяются в случае, когда p и q не малы , а npq>9.Локальная теорема Муавра-Лапласа. Если вероятность появления события А в каждом из n независимых испытаний равна одной и той же постоянной р=const (0<р<1), то вероятность того, что во всех этих испытаниях событие А появится ровно k раз, приближенно вычисляется формулой: где: , -- кривая Гаусса.Интегральная теорема Муавра-Лапласа. Пусть вероятность появления события А в каждом из n (n) независимых испытаний равна одной и той же постоянной р (0<р<1), то вероятность того, что во всех этих испытаниях событие А появится не менее k1 и не более k2 раз, приближенно вычисляется формулой: где - функция Лапласа, ,

8.) Понятие случайной величины (СВ). Дискретные и непрерывные СВ, приме-ры. Понятие закона распределения СВ. Ряд распределения дискретной СВ. Под случайной величиной понимается величина, которая в результате опыта со случайным исходом принимает то или иное значение. Возможные значения случайной величины образуют множество , которое называется множеством возможных значений случайной величины. Обозначения случайной величины: X, Y, Z; возможные значения случайной величины: x, y, z.В зависимости от вида множества случайные величины могут быть дискретными и недискретными. СВ Х называется дискретной, если множество ее возможных значений – счетное или конечное. Если множество возможных значений СВ несчетно, то такая СВ является недискретной.В теоретико-множественной трактовке основных понятий теории вероятностей случайная величина Х есть функция элементарного события: X=(), где – элементарное событие, принадлежащее пространству . При этом множество возможных значений СВ Х состоит из всех значений, которые принимает функция (). Законом распределения СВ называется любое правило (таблица, функция), позволяющее находить вероятности всевозможных событий, связанных со случайной величиной. (То есть, всякое соотношение, устанавливающее связь между возможными значениями СВ и их вероятностями.) СВ будет полностью описана с вероятностной точки зрения, если мы зададим это распределение, т.е. в точности укажем, какой вероятностью обладает каждое событие. Про случайную величину мы будем говорить, что она подчинена данному закону распределения. Наиболее простую форму можно придать закону распределения дискретной случайной величины. Рядом распределения дискретной случайной величины называется таблица, в которой перечислены в порядке возрастания все возможные значения случайной величины X: x1, x2, …, xn, … и вероятности этих значений p1, p2, …, pn, …, где pi=P{X=xi} – вероятность того, что в результате опыта СВ Х примет значение xi (i=1,2,…, n, …).Ряд распределения записывается в виде таблицы:Xx1x2…xn…Pp1p2…pn…Так как события {X=x1}, {X=x2}, … несовместны и образуют полную группу, то сумма всех вероятностей, стоящих в нижней строке равна единице:

9) 9.Определение функции распределения СВ, ее свойства .Функцией распределения случайной величины X называется вероятность того, что она примет значение меньшее, чем аргумент функции x: F(x)=P{X<x}.Геометрически функция распределения интерпретируется как вероятность того, что случайная точка X попадет левее заданной точки X .Из геометрической интерпретации наглядно можно вывести основные свойства функции распределения.1. F(-¥ ) = 0. 2. F(+¥ ) = 1. 3.F(x) – неубывающая функция своего аргумента, т.е. при x1 < x2 F(x1) £ F(x2). 4. P(£ X < ) = F() - F(), Вероятность того, что случайная величина Х в результате опыта попадет на участок от до (включая ) равна приращению функции распределения на этом участке.Таким образом, функция распределения F(x)любой случайной величины есть неубывающая функция своего аргумента, значения которой заключены между 0 и 1: 0F(x)1, причем F(-)=0, F(+)=1.

10). 10.Функция плотности непрерывной СВ, ее свойства и связь с функцией распре-деления. Формулы вероятности попада-ния в интервал с помощью функции распределения и функции плотности. Геометрический смысл вероятности по-падания в интервал непрерывной СВ. Случайная величина Х называется непрерывной, если ее функция распределения F(x) есть непрерывная, кусочно-дифференцируемая функция с непрерывной производной.Так как для таких случайных величин функция F(x) нигде не имеет скачков, то вероятность любого отдельного значения непрерывной случайной величины равна нулюP{X=}=0 для любого .В качестве закона распределения, имеющего смысл только для непрерывных случайных величин существует понятие плотности распределения или плотности вероятности.Вероятность попадания непрерывной случайной величины X на участок от x до x+Dx равна приращению функции распределения на этом участке:P{x£ X <x+Dx}=F(x+Dx) - F(x).Плотность вероятности на этом участке определяется отношением Плотностью распределения (или плотностью вероятности) непрерывной случайной величины X в точке x называется производная ее функции распределения в этой точке и обозначается f(x). График плотности распределения называется кривой распределения.Пусть имеется точка x и прилегающий к ней отрезок dx. Вероятность попадания случайной величины X на этот интервал равна f(x)dx. Эта величина называется элементом вероятности. Вероятность попадания случайной величины X на произвольный участок [a, b[ равна сумме элементарных вероятностей на этом участке: .В геометрической интерпретации P{X<} равна площади, ограниченной сверху кривой плотности распределения f(x) и опирающейся на участок (,) Это соотношение позволяет выразить функцию распределения F(x) случайной величины X через ее плотность: В геометрической интерпретации F(x) равна площади, ограниченной сверху кривой плотности распределения f(x) и лежащей левее точки x .Основные свойства плотности распределения: 1.Плотность распределения неотрицательна: f(x) ³ 0.Это свойство следует из определения f(x) – производная неубывающей функции не может быть отрицательной. 2. Условие нормировки: Это свойство следует из формулы (5.8), если положить в ней x=.Геометрически основные свойства плотности f(x) интерпретируются так:1)вся кривая распределения лежит не ниже оси абсцисс;2)полная площадь, ограниченная кривой распределения и осью абсцисс, равна единице.

13).Понятие мат. ожидания, его физический смысл. Определение дисперсии. Мат. ожидание и дисперсия как представители начальных и цен-тральных моментов, формулы для их вычисления. Математическое ожидание (МО) характеризует среднее взвешенное значение случайной величины.Для вычисления математического ожидания для ДСВ каждое значение xi учитывается с «весом», пропорциональным вероятности этого значения. M[X]-оператор математического ожидания;mx -- число, полученное после вычислений по формуле.Для НСВ заменим отдельные значения непрерывно изменяющимся параметром , соответствующие вероятности - элементом вероятности , а конечную сумму – интегралом: Механическая интерпретация понятия математического ожидания: на оси абсцисс расположены точки с абсциссами , в которых сосредоточены соответственно массы р1, р2,...., причем . Тогда МО – абсцисса центра тяжести. Для НСВ – масса распределена непрерывно с плотностью . Для смешанных случайных величин математическое ожидание состоит из двух слагаемых. где сумма распространяется на все значения xi, имеющие отличные от нуля вероятности, а интеграл – на все участки оси абсцисс, где функция распределения F(x) непрерывна.Физический смысл математического ожидания – это среднее значение случайной величины, т.е. то значение, которое может быть использовано вместо конкретного значения, принимаемого случайной величиной в приблизительных расчетах или оценках. Дисперсия случайной величины есть математическое ожидание квадрата соответствующей центрированной случайной величины. Она характеризует степень разброса значений случайной величины относительно ее математического ожидания, т.е. ширину диапазона значений.Расчетные формулы:

Дисперсия может быть вычислена через второй начальный момент: Дисперсия случайной величины характеризует степень рассеивания (разброса) значений случайной величины относительно ее математического ожидания. Дисперсия СВ (как дискретной, так и непрерывной) есть неслучайная (постоянная) величина.

14) Среднее квадратическое отклонение. Правило «3». Свойства мат. ожидания и дисперсии. Мода, медиана, коэффи-циент вариации, коэффициент асимметрии и эксцесс, их смысл. Квантиль порядка p. Средним квадратическим отклонением (СКО) СВ X называется характеристика СКО измеряется в тех же физических единицах, что и СВ, и характеризует ширину диапазона значений СВ. Правило 3s. Для большинства значений случайной величины абсолютная величина ее отклонения от математического ожидания не превосходит утроенного среднего квадратического отклонения, или, другими словами, практически все значения СВ находятся в интервале: [ m - 3s; m + 3s; ]. Дисперсия постоянной величины с равна нулю.Доказательство: по определению дисперсии При прибавлении к случайной величине Х неслучайной величины с ее дисперсия не меняется.D[X+c] = D[X]. Доказательство: по определению дисперсии

3. При умножении случайной величины Х на неслучайную величину с ее дисперсия умножается на с^2.Доказательство: по определению дисперсии

Для среднего квадратичного отклонения это свойство имеет вид:

Действительно, при ½С½>1 величина сХ имеет возможные значения (по абсолютной величине), большие, чем величина Х. Следовательно, эти значения рассеяны вокруг математического ожидания М[сХ] больше, чем возможные значения Х вокруг М[X], т.е. . Если 0<½с½<1, то .

15/) Равномерное распределение – функция плотности, распределения, вывод мат. ожидания, дисперсии. Вероятность по-падания в интервал. Примеры содержа-тельных задач, приводящих к равно-мерному распределению. Дискретная случайная величина X имеет геометрическое распределение, если вероятности ее возможных значений 0,1,….,k,.. определяются так: где p – параметр распределения , а q=1-p. 01 2…k… p …На практике геометрическое распределение появляется при следующих условиях. Пусть производится некоторый опыт, в котором некоторое событие появляется с вероятностью p. Опыты производятся последовательно, до наступления события. Случайная величина X, равная числу неудачных опытов, имеет геометрическое распределение.Числовые характеристики геометрического распределения: “Смещенное” геометрическое распределение получается из геометрического путем преобразования СВ X и СВ Y=X+1.Дискретная случайная величина Y имеет смещенное геометрическое распределение если вероятности ее возможных значений 1,…,k, определяются так где p – параметр распределения а q=1-p. 123…k… p …Числовые характеристики смещенного геометрического распределения определяются с использованием их свойств: .

16. Показательное распределение - функ-ция плотности, распределения, форму-лы для мат. ожидания, дисперсии.ПОКАЗАТЕЛЬНОЕ РАСПРЕДЕЛЕНИЕ= непрерывное распределение вероятностей случайной величины X, задаваемое плотностью

Плотность р(х).зависит от положительного масштабного параметра l. Формула для моментов: , в частности - для математич. ожидания и дисперсии ; характеристич. функция: (1-it/l)-1. П. р. входит в семейство распределений, называемых гамма-распределениями и задаваемых плотностью

П. р.- единственное распределение, обладающее свойством отсутствия последействия: для любых х>0, у>0 выполняется равенство где Р{ Х>х+у|Х>у} - условная вероятность события X>x+y при условии X>y. Свойство (2) называется также марковским свойством. В однородном пуассоновском процессе расстояние между двумя последовательными скачками траектории имеет П. р. Наоборот, процесс восстановления с показательным временем жизни (1) является пуассоновским процессом восстановления. П. р. часто возникает как предельное при суперпозиции или разрежении процессов восстановления, в задачах пересечения высокого уровня в различных схемах блуждания, в критических ветвящихся процессах и т. п. Упомянутыми выше свойствами объясняется широкое применение П. р. при расчетах различных систем в теории массового обслуживания и в теории надежности. Предполагая времена занятости приборов случайными, независимыми друг от друга и распределенными показательно, можно благодаря свойству (2) изучать системы массового обслуживания с помощью конечных или счетных цепей Маркова с непрерывным временем. Аналогичным образом используются цепи Маркова и в теории надежности, где времена исправной работы отдельных приборов часто можно предполагать независимыми и распределенными показательно.

17. Производящая функция. Вычисление мат. ожидания и дисперсии с помощью производящей функции.Производящая функция моментов — способ задания вероятностных распределений. Используется чаще всего для вычисления моментов. Пусть есть случайная величина с распределением . Тогда её производящей функцией моментов называется функция, имеющая вид: Пользуясь формулами для вычисления математического ожидания, определение производящей функции моментов можно переписать в виде: ,то есть производящая функция моментов — это двустороннее преобразование Лапласа распределения случайной величины. Дискретные и абсолютно непрерывные случайные величиныЕсли случайная величина X дискретна, то есть , то Пример. Пусть X имеет распределение Бернулли. Тогда .Если случайная величина X абсолютно непрерывна, то есть она имеет плотность , то Пример. Пусть имеет стандартное непрерывное равномерное распределение. Тогда

`18.) 18. Закон Бернулли – вывод числовых ха-рактеристик, условия возникновения. Дискретная случайная величина X имеет биноминальное распределение, если ее закон распределения описывается формулой Бернулли: где p – параметр распределения Распределение загасит от двух параметров п и р.На практике биноминальное распределение возникает при следующих условиях. Пусть производится серия из п испытании, в каждом из которых некоторое событие появляется с вероятностью р. Случайная величина X, равная числу наступлений события в п опытах, имеет биноминальное распределение.Числовые характеристики: М [Х] = n, D[X]= npq.Название объясняется тем, что правую часть равенства можно рассматривать как общий член разложения Бинома Ньютона: , т.е. .

19.) 19. Закон Пуассона – вывод числовых ха-рактеристик, условия возникновения .Распределение Пуассона.Соотношениями, описывающими биноминальное распределение, удобно пользоваться в тех случаях, если величина и достаточно мала, а р велико. Теорема: Если, а так, что то при любом k=0,1,….Числовые характеристики: М[Х] = , D[X] = .Закон Пуассона зависит от одного параметра , смысл которого заключается в следующем: он является одновременно и математическим ожиданием и дисперсией случайной величины Х.

20.) Нормальное распределение. Влияние значений и на вид графика функ-ции плотности нормального распреде-ления. Нормированное нормальное рас-пределение. Функция Лапласа, ее свой-ства. Формула вероятности попадания в интервал.Непрерывная случайная величина Х имеет нормальное распределение, если ее плотность вероятности имеет вид:

Определим числовые характеристики нормально распределенной случайной величины Х. Математическое ожидание: Применяя замену переменной получим

В полученном выражении первый интеграл равен нулю (интеграл в симметричных пределах от нечетной функции), а второй интеграл есть интеграл Эйлера-Пуассона: Таким образом, математическое ожидание величины Х равно m:M[X]=m.

Вычислим дисперсию СВ Х: Применяя замену переменной получим: Интегрируя по частям, получим: Первое слагаемое в фигурных скобках равно нулю (т.к. при t убывает быстрее, чем возрастает любая степень t), второе слагаемое, согласно , равно , откуда .Таким образом, нормальное распределение случайной величины полностью описывается двумя числовыми характеристиками: математическим ожиданием M[X] и средним квадратичным отклонением .Рассмотрим влияние параметров m и на кривую распределения. При изменении параметра m кривая f(x), не изменяя формы, будет смещаться вдоль оси абсцисс. Изменение равносильно изменению масштаба кривой по обеим осям; например, при удвоении масштаб по оси абсцисс удвоится, а по оси ординат уменьшится в два раза .Центральные моменты нечетной степени для нормально распределенной случайной величины определяются равны нуню; для вычисления центральных моментов четной степени используется рекуррентное соотношение следующего вида: Определим вероятность попадания нормально распределенной случайной величины в интервал от до : Сделав замену переменной t=(x-m)/, получим: Так как первообразная для e-x не выражается через элементарные функции, то для вычисления вероятностей событий, связанных с нормальными случайными величинами используют табулированную функцию Лапласа: .С помощью этой функции вероятность попадания нормально распределенной случайной величины на интервал от до определится так:

Функция Лапласа обладает следующими свойствами:1)(0)=0;2)(-х)=-(х);3)(-)=0,5.Функция распределения нормально распределенной случайной величины через функцию Лапласа выражается так: Нормально распределенная случайная величина возникает в тех случаях, когда складывается много независимых (или слабо зависимых) случайных величин Х1, Х2, …, Xn. Тогда, каковы бы не были законы распределения отдельных случайных величин Xi, закон распределения их суммы будет близок к нормальному распределению. В частности, ошибки измерений распределяются по закону, близкому к нормальному.

21) 21. Понятие системы СВ. Система двух дискретных СВ. Получение отдельных рядов распределения из матрицы рас-пределения. зависимые и независимые величины в системе. Условные законы распределения. Системоой случайнвх величин (случайным вектором, многомерной случайной величиной) называется любая упорядоченная совокупность случайных величин Х ={X1, …, Xn}.Случайные величины{X1, …, Xn}, входящие в систему могут быть как непрерывными, так и дискретными. Для наглядности рассмотрения пользуются геометрической интерпретацией; так систему двух случайных величин {X,Y} можно представить случайной точкой на плоскости с координатами X и Y, или случайным вектором, направленным из начала координат в точку (X,Y).Свойства случайных величин не исчерпываются свойствами отдельных величин, входящих в систему и необходимы средства для описания характеристик систем случайных величин. Двухмерная случайная величина (Х,У) является дискретной, если множества значений ее компонент X={x1, …, xn} и Y={y1, …, ym} представляют собой счетные множества. Для описания вероятностных характеристик таких величин используется двухмерная функция распределения и матрица вероятности, которая содержит значения компоненты X ={x1,x2,.. xn}, Y={y1,y2, … ym} и вероятности всех возможных пар значений pij = P(X =xi , Y = yj ) ,i=1..n , j=1..m.Матрица распределения системы двух случайных величин записывается в виде:y1y2 …yj…ymx1 p11p12…p1j…p1mx2 p21p22…p2j…p2m… ………………xipi1pi2…pijpim……… …………xn pn1pn2…pnj…pnm.Сумма всех вероятностей pij, стоящих в матрице распределения вероятностей равна единице как сумма вероятностей полной группы событий: Зная матрицу распределения системы двух дискретных случайных величин (X,Y), можно найти закон распределения отдельных случайных величин, входящих в систему: Представим событие (X=xi) как сумму несовместных событий:

По правилу сложения вероятностей аналогично

Зависимые и независимые случайные величины. Условные законы распределения системы дискретных случайных величин.Величина Х не зависит от величины Y, если ее закон распределения не зависит от того, какое значение приняла величины Y.Для независимых величин выполняется следующие соотношения:1. F(x,y)=p(X<x,Y<y)=p(X<x)p(Y<y)=FX(x)FY(y);2. для непрерывных случайных величин f(x, y) = f1(x)f2(y);3. для дискретных случайных величин pij = pi pj , для " i, j.Для независимых величин двумерные формы закона распределения не содержат никакой дополнительной информации кроме той, которая содержится в двух одномерных законах. В случае зависимости величин Х и Y, переход от двух одномерных законов к совместному осуществить невозможно. Для этого необходимо знать условные законы распределения.Условным законом распределения называется распределение одной случайной величины, найденное при условии, что другая случайная величина приняла определенное значение.Условные ряды вероятностей для дискретных составляющих Х и Y определяются по формулам pi/j = P(X = xi/Y = yj) = pij/P(Y = yj)= , i = 1, ..., N; pj/i = P(Y = yj/X = xi) = pij/P(X = xi)= = , j = 1, ..., M. Заметим, что

22. Числовые характеристики системы – центр рассеивания, корреляционный момент, матрица рассеивания системы (ковариационная матрица), формулы для их вычисления. Смешанным начальным моментом порядка k+s называется математическое ожидание произведения Xk и Ys:

Смешанным центральным моментом порядка k+s называется математическое ожидание произведения центрированных величин и : где - центрированные случайные величины.Расчетные формулы: где pij - элементы матрицы вероятностей дискретной величины (X, Y);f(x, y)-совместная плотность вероятности непрерывной величины (X, Y).Рассмотрим наиболее часто используемые начальные и центральные моменты:a0,0(x, y) = m0,0(x, y) = 1;42 Числовые характеристики систем случайных величин.Первые начальные моменты представляют собой уже известные нам математические ожидания величин Х и У, входящих в систему: a1,0(x, y) = mx; a0,1(x, y) = my. Совокупность математических ожиданий представляет собой характеристику положения системы. Геометрически это координаты средней точки на плоскости, вокруг которой происходит рассеивание случайных точек (Х,У).m1,0(x, y) = М[Х-mx]=0 m0,1(x, y)= М[Y-my)=0; a2,0(x, y) = a2(x) a0,2(x, y) = a2(y)На практике широко используются вторые центральные моменты системы. Два из них представляют собой дисперсии, которые характеризуют рассеивание случайной точки в направлении осей 0Х и 0Y:m2,0(x, y) = М[Х-mx)2=D[X]=Dx; m0,2(x, y) = М[Y-my)2 ]=D[Y]=Dy;

23) Коэффициент корреляции, его свой-ства. Условные числовые характери-стики, их смысл. Линия регрессии.Особую роль играет центральный момент порядка 1+1 или второй смешанный центральный момент, который называется ковариацией или корреляционным моментом m1,1(x, y) = Kxy= Ковариация представляет собой математическое ожидание произведения центрированных случайных величин X и Y и характеризует степень линейной статистической зависимости величин X и Y и рассеивание относительно точки (mx, my):Kxy = Или Расчетные формулы для определения ковариации:

Свойства корреляции:1. Kxy=Kyx. 2. Корреляционный момент двух независимых случайных величин Х и У равен нулю. 3. Абсолютная величина корреляционного момента двух случайных величин не превышает среднего геометрического их дисперсий

или . Если , случайные величины Х и Y называются коррелированными. Если , то необязательно, что Х и Y независимы. В этом случае они называются некоррелированными. Итак, из коррелированности двух случайных величин следует их зависимость, но из зависимости еще не вытекает их коррелированность. Из независимости двух случайных величин следует их некоррелированность, но из некоррелированности еще нельзя заключить о независимости этих величин.Величина ковариации зависит единиц измерения каждой из случайных величин, входящих в систему и от того, насколько каждая из случайных величин отклоняется от своего математического ожидания (одна – мало, вторая – сильно, все равно будет мал).Поэтому для характеристики связи между Х и Y в чистом виде переходят к безразмерной характеристике, которая называется Коэффициент корреляции rxy характеризует степень линейной зависимости величин:

Свойства коэффициента корреляции:1. Абсолютная величина коэффициента корреляции двух случайных величин не превышает единицы: 2. rxy=1 если Y=aХ+b 3. Если величины X и Y независимы, то rxy = 0.

24.Основные задачи мат. статистики. Вы-борка. Генеральная совокупность. Вариационный ряд. Эмпирические законы распределения вероятностей. Полигон и гистограмма. Основу статистического исследования составляет множество данных, полученных в результате измерения одного или нескольких признаков. Реально наблюдаемая совокупность объектов, статистически представленная рядом наблюдений случайной величиныX , является выборкой, а гипотетически существующая (домысливаемая) — генеральной совокупностью. Генеральная совокупность может быть конечной (число наблюдений N = const) или бесконечной (N = ), а выборка из генеральной совокупности — это всегда результат ограниченного ряда наблюдений. Число наблюденийn , образующих выборку, называется объемом выборки. Если объем выборки достаточно велик (n ) выборка считается большой, в противном случае она называется выборкой ограниченного объема. Выборка считается малой, если при измерении одномерной случайной величины X объем выборки не превышает 30 (n <= 30), а при измерении одновременно нескольких (k) признаков в многомерном пространстве отношение n к k не превышает 10 (n/k < 10). Выборка образует вариационный ряд, если ее члены являются порядковыми статистиками, т. е. выборочные значения случайной величины Х упорядочены по возрастанию (ранжированы), значения же признака называются вариантами.

25.Точечные оценки числовых характери-стик. Метод моментов для их получе-ния. Свойства точечных оценок. Задача оценивания параметров распределения генеральной – одна из основных задач математической статистики. На содержательном уровне задача оценивания параметров распределения формулируется так: располагая выборкой реализаций случайной величины Х, необходимо получить оценку неизвестного параметра генеральной совокупности а и ее статистические свойства.Оценивание параметров распределения осуществляется в два этапа. На первом этапе, на основании выборки х1, х2, ... , ,хn ,строится статистика значение которой при данной выборке х1, х2, ... , ,хn принимают за приближенное значение оцениваемого параметра a,Так как параметр генеральной совокупности оценивается числом, которое на числовой оси изображается точкой, то оценку называют точечной. 1. Несмещенность оценки. Оценка называется несмещенной, если ее математическое ожидание равно оцениваемому параметру генеральной совокупности: В противном случае оценка называется смещенной и допускает систематическую ошибку. Так, рассмотренное ранее среднее выборочное является несмещенной оценкой среднего генерального. В то же время выборочная дисперсия - является смещенной оценкой генеральной дисперсии.2. Состоятельность оценки. Оценка называется состоятельной, если она по вероятности с увеличением объема выборки п стремится к параметру генеральной совокупности: Это условие будет выполняться, если

и оценка является несмещенной. Доказательство этого основано на неравенстве Чебышева.3. Эффективность оценки. Если составлять множество несмещенных и состоятельных оценок, то эти оценки будут иметь разные дисперсии. Ясно, что, чем меньше будет дисперсия, тем меньше будет вероятность грубой ошибки при определении приближенного параметра генеральной совокупности. Поэтому нужно выбрать такую оценку, у которой дисперсия была бы минимальной: Такая оценка называется эффективной.

26.Доверительный интервал, доверитель-ная вероятность. Точность, надежность оценки. Построение доверительного интервала для мат. ожидания нормаль-но распределенной СВ при известном. с.к.о. Доверительный интервал — термин, используемый в математической статистике при интервальной (в отличие от точечной) оценке статистических параметров, что предпочтительнее при небольшом объёме выборки. Доверительным называют интервал, который покрывает неизвестный параметр с заданной надёжностью.Метод доверительных интервалов разработал американский статистик Ежи Нейман, исходя из идей английского статистика Рональда Фишера/ Доверительным интервалом параметра распределения случайной величины X с уровнем доверия 100p%[примечание 1], порождённым выборкой (x1,…,xn), называется интервал с границамиL (x1,…,xn) иU (x1,…,xn), которые являются реализациями случайных величин L(X1,…,Xn) и U(X1,…,Xn), таких, что Граничные точки доверительного интервала lи uназываются доверительными пределами.Интерпретация доверительного интервала, основанная на интуиции, будет следующей: если p велико (скажем, 0,95 или 0,99), то доверительный интервал почти наверняка содержит истинное значение .

онятие статистической гипотезы. Ви-ды гипотез. Ошибки первого и второго рода, их связь. Понятие статистическо-го критерия и уровня значимости. Вид критической области и области приня-тия гипотезы в зависимости от альтер-нативной гипотезы.

Статистическая гипотеза представляет собой некоторое предположение о законе распределения случайной величины или о параметрах этого закона, формулируемое на основе выборки [3, 5, 11]. Примерами статистических гипотез являются предположения: генеральная совокупность распределена по экспоненциальному закону; математические ожидания двух экспоненциально распределенных выборок равны друг другу. В первой из них высказано предположение о виде закона распределения, а во второй – о параметрах двух распределений. Гипотезы, в основе которых нет никаких допущений о конкретном виде закона распределения, называют непараметрическими, в противном случае – параметрическими.Гипотезу, утверждающую, что различие между сравниваемыми характеристиками отсутствует, а наблюдаемые отклонения объясняются лишь случайными колебаниями в выборках, на основании которых производится сравнение, называют нулевой (основной) гипотезой и обозначают Н0. Наряду с основной гипотезой рассматривают и альтернативную (конкурирующую, противоречащую) ей гипотезу Н1. И если нулевая гипотеза будет отвергнута, то будет иметь место альтернативная гипотеза. Различают простые и сложные гипотезы. Гипотезу называют простой, если она однозначно характеризует параметр распределения случайной величины. Например, если l является параметром экспоненциального распределения, то гипотеза Н0 о равенстве l =10 – простая гипотеза. Сложной называют гипотезу, которая состоит из конечного или бесконечного множества простых гипотез. Сложная гипотеза Н0 о неравенстве l >10 состоит из бесконечного множества простых гипотез Н0 о равенстве l =bi , где bi – любое число, большее 10. Гипотеза Н0 о том, что математическое ожидание нормального распределения равно двум при неизвестной дисперсии, тоже является сложной. Сложной гипотезой будет предположение о распределении случайной величины Х по нормальному закону, если не фиксируются конкретные значения математического ожидания и дисперсии. Принятие или отклонение гипотезы Н0 по случайной выборке соответствует истине с некоторой вероятностью и, соответственно, возможны два рода ошибок. Ошибка первого рода возникает с вероятностью a тогда, когда отвергается верная гипотеза Н0 и принимается конкурирующая гипотеза Н1. Ошибка второго рода возникает с вероятностью b в том случае, когда принимается неверная гипотеза Н0, в то время как справедлива конкурирующая гипотеза Н1. Доверительная вероятность – это вероятность не совершить ошибку первого рода и принять верную гипотезу Н0. Вероятность отвергнуть ложную гипотезу Н0 называется мощностью критерия.

28) 28. Принцип проверки параметрических гипотез. Перечислить несколько пара-метрических гипотез. Привести пример критерия для проверки какой-либо па-раметрической гипотезы Распределению хи-квадрат (c 2-распределению) с k степенями свободы соответствует распределение суммы квадратов n стандартизованных случайных величин ui, каждая из которых распределена по нормальному закону, причем k из них независимы, n ³ k. Функция плотности распределения хи-квадрат с k степенями свободы , x і 0,где х = c 2, Г(k/2) – гамма-функция.Число степеней свободы k определяет количество независимых слагаемых в выражении для c 2. Функция плотности при k, равном одному или двум, – монотонная, а при k >2 – унимодальная, несимметричная, рис. 3.6. Рис. 3.6. Плотность распределения хи-квадрат

Математическое ожидание и дисперсия величины c 2 равны соответственно k и 2k. Распределение хи-квадрат является частным случаем более общего гамма-распределения, а величина, равная корню квадратному из хи-квадрат с двумя степенями свободы, подчиняется распределению Рэлея.С увеличением числа степеней свободы (k >30) распределение хи-квадрат приближается к нормальному распределению с математическим ожиданием k и дисперсией 2k. В таких случаях критическое значение c 2(k; a ) » u1– a (k, 2k), где u1– a (k, 2k) – квантиль нормального распределения. Погрешность аппроксимации не превышает нескольких процентов.

Распределение Стьюдента (t-распределение, предложено в 1908 г. английским статистиком В. Госсетом, публиковавшим научные труды под псевдонимом Student) характеризует распределение случайной величины , где u0, u1, …, uk взаимно независимые нормально распределенные случайные величины с нулевым средним и конечной дисперсией. Аргумент t не зависит от дисперсии слагаемых. Функция плотности распределения Стьюдента Величина k характеризует количество степеней свободы. Плотность распределения – унимодальная и симметричная функция, похожая на нормальное распределение, рис. 3.7. Область изменения аргумента t от –Ґ до Ґ . Математическое ожидание и дисперсия равны 0 и k/(k–2) соответственно, при k>2. По сравнению с нормальным распределение Стьюдента более пологое, оно имеет меньшую дисперсию. Это отличие заметно при небольших значениях k, что следует учитывать при проверке статистических гипотез (критические значения аргумента распределения Стьюдента превышают аналогичные показатели нормального распределения). Таблицы распределения содержат значения для односторонней или двусторонней критической области.Распределение Стьюдента применяется для описания ошибок выборки при k Ј 30. При k >100 данное распределение практически соответствует нормальному, для 30 < k < 100 различия между распределением Стьюдента и нормальным распределением составляют несколько процентов. Поэтому относительно оценки ошибок малыми считаются выборки объемом не более 30 единиц, большими – объемом более 100 единиц. При аппроксимации распределения Стьюдента нормальным распределением для односторонней критической области вероятность Р{t > t(k; a )} = u1– a (0, k/(k–2)), где u1– a (0, k/(k–2)) – квантиль нормального распределения. Аналогичное соотношение можно составить и для двусторонней критической области.

29. Непараметрические гипотезы. Алго-ритм критерия Пирсона и критерия КолмогороваИспользование этого критерия основано на применении такой меры (статистики) расхождения между теоретическим F(x) и эмпирическим распределением Fп(x), которая приближенно подчиняется закону распределения c 2. Гипотеза Н0 о согласованности распределений проверяется путем анализа распределения этой статистики. Применение критерия требует построения статистического ряда.Итак, пусть выборка представлена статистическим рядом с количеством разрядов y . Наблюдаемая частота попаданий в i-й разряд ni. В соответствии с теоретическим законом распределения ожидаемая частота попаданий в i-й разряд составляет Fi. Разность между наблюдаемой и ожидаемой частотой составит величину (n i – Fi). Для нахождения общей степени расхождения между F(x) и Fп(x) необходимо подсчитать взвешенную сумму квадратов разностей по всем разрядам статистического ряда Величина c^ 2 при неограниченном увеличении n имеет распределение хи-квадрат (асимптотически распределена как хи-квадрат). Это распределение зависит от числа степеней свободы k, т.е. количества независимых значений слагаемых в выражении (3.7). Число степеней свободы равно числу y минус число линейных связей, наложенных на выборку. Одна связь существует в силу того, что любая частота может быть вычислена по совокупности частот в оставшихся y – 1 разрядах. Кроме того, если параметры распределения неизвестны заранее, то имеется еще одно ограничение, обусловленное подгонкой распределения к выборке. Если по выборке определяются f параметров распределения, то число степеней свободы составит k=y – f –1.Область принятия гипотезы Н0 определяется условием c 2^£ c 2(k;a ), где c ^2(k;a ) – критическая точка распределения хи-квадрат с уровнем значимости a . Вероятность ошибки первого рода равна a , вероятность ошибки второго рода четко определить нельзя, потому что существует бесконечно большое множество различных способов несовпадения распределений. Мощность критерия зависит от количества разрядов и объема выборки. Критерий рекомендуется применять при n>200, допускается применение при n>40, именно при таких условиях критерий состоятелен(как правило, отвергает неверную нулевую гипотезу)

. Для применения критерия А.Н. Колмогорова ЭД требуется представить в виде вариационного ряда (ЭД недопустимо объединять в разряды). В качестве меры расхождения между теоретической F(x) и эмпирической Fn(x) функциями распределения непрерывной случайной величины Х используется модуль максимальной разности dn = max|F(x) - Fn(x)|

А.Н. Колмогоров доказал, что какова бы ни была функция распределения F(x) величины Х при неограниченном увеличении количества наблюдений n функция распределения случайной величины dn асимптотически приближается к функции распределения . Иначе говоря, критерий А.Н. Колмогорова характеризует вероятность того, что величина dn не будет превосходить параметр l для любой теоретической функции распределения. Уровень значимости a выбирается из условия , в силу предположения, что почти невозможно получить это равенство, когда существует соответствие между функциями F(x) и Fn(x). Критерий А.Н. Колмогорова позволяет проверить согласованность распределений по малым выборкам, он проще критерия хи-квадрат, поэтому его часто применяют на практике. Но требуется учитывать два обстоятельства.Во-первых, в точном соответствии с условиями его применения необходимо пользоваться следующим соотношением где .Во-вторых, условия применения критерия предусматривают, что теоретическая функция распределения известна полностью (известны вид функции и ее параметры). Но на практике параметры обычно неизвестны и оцениваются по ЭД. Это приводит к завышению значения вероятности соблюдения нулевой гипотезы, т.е. повышается риск принять в качестве правдоподобной гипотезу, которая плохо согласуется с ЭД (повышается вероятность совершить ошибку второго рода). В качестве меры противодействия такому выводу следует увеличить уровень значимости a , приняв его равным 0,1 – 0,2, что приведет к уменьшению зоны допустимых отклонений.

30. Основные задачи корреляционного ана-лиза. Оценка коэффициента корреля-ции, проверка гипотезы о его значимо-сти.Исследователя нередко интересует, как связаны между собой две или большее количество переменных в одной или нескольких изучаемых выборках. Например, может ли рост влиять на вес человека или может ли давление влиять на качество продукции? Такого рода зависимость между переменными величинами называется корреляционной, или корреляцией. Корреляционная связь - это согласованное изменение двух признаков, отражающее тот факт, что изменчивость одного признака находится в соответствии с изменчивостью другого. Известно, например, что в среднем между ростом людей и их весом наблюдается положительная связь, и такая, что чем больше рост, тем больше вес человека. Однако из этого правила имеются исключения, когда относительно низкие люди имеют избыточный вес, и, наоборот, астеники, при высоком росте имеют малый вес. Причиной подобных исключений является то, что каждый биологический, физиологический или психологический признак определяется воздействием многих факторов: средовых, генетических, социальных, экологических и т.д. Корреляционные связи - это вероятностные изменения, которые можно изучать только на представительных выборках методами математической статистики. Оба термина - корреляционная связь и корреляционная зависимость - часто используются как синонимы. Зависимость подразумевает влияние, связь - любые согласованные изменения, которые могут объясняться сотнями причин. Корреляционные связи не могут рассматриваться как свидетельство причинно-следственной зависимости, они свидетельствуют лишь о том, что изменениям одного признака, как правило, сопутствуют определенные изменения другого. Корреляционная зависимость - это изменения, которые вносят значения одного признака в вероятность появления разных значений другого признака. Задача корреляционного анализа сводится к установлению направления (положительное или отрицательное) и формы (линейная, нелинейная) связи между варьирующими признаками, измерению ее тесноты, и, наконец, к проверке уровня значимости полученных коэффициентов корреляции.Корреляционные связи различаются по форме, направлению и степени (силе). По форме корреляционная связь может быть прямолинейной или криволинейной. Прямолинейной может быть, например, связь между количеством тренировок на тренажере и количеством правильно решаемых задач в контрольной сессии. Криволинейной может быть, например, связь между уровнем мотивации и эффективностью выполнения задачи (рисунок 1). При повышении мотивации эффективность выполнения задачи сначала возрастает, затем достигается оптимальный уровень мотивации, которому соответствует максимальная эффективность выполнения задачи; дальнейшему повышению мотивации сопутствует уже снижение эффективности.

Рисунок 1 - Связь между эффективностью решения задачи и силой мотивационной тенденции .

По направлению корреляционная связь может быть положительной ("прямой") и отрицательной ("обратной"). При положительной прямолинейной корреляции более высоким значениям одного признака соответствуют более высокие значения другого, а более низким значениям одного признака - низкие значения другого. При отрицательной корреляции соотношения обратные. При положительной корреляции коэффициент корреляции имеет положительный знак, при отрицательной корреляции - отрицательный знак. Степень, сила или теснота корреляционной связи определяется по величине коэффициента корреляции. Сила связи не зависит от ее направленности и определяется по абсолютному значению коэффициента корреляции.