Если несколько событий: образуют полную группу, несовместны и равновозможны, то они называются случаями.

Случай называется благоприятным событию, если появление этого случая влечет за собой появление события.

 

 

Вероятность события А вычисляется по формуле:

 

 

где n – общее число случаев, m – число случаев, благоприятных событию А.

 

Вероятностью события А называют отношение числа благоприятствующих этому событию случаев к общему числу всех равновозможных элементарных исходов, образующих полную группу.


12. Теоремы умножения вероятностей.

Вероятность произведения двух событий равна вер-ти одного из них, умноженной на условную вероятность другого при наличии первого:

 

Р (АВ) = Р(А) · Р(В/А), или Р (АВ) = Р(В) · Р(А/В).

 

Следствие. Вероятность совместного наступления двух независимых событий А и В равна произведению вероятностей этих событий:

 

Р (АВ) = Р(А) · Р(В).

 

Следствие. При производимых n одинаковых независимых испытаниях, в каждом из которых события А появляется с вероятностью р, вероятность появления события А хотя бы один раз равна 1 - (1 - р)n


13. Дискретные случайные величины.

Случайной величиной назовем произвольную функцию на множестве элементарных исходов:

 

 

Множества вида являются событиями. Иногда для таких событий мы будем использовать более короткое обозначение: .

 

Так как - не более чем счетно, то случайная величина принимает не более чем счетное число значений:

 

Определение 2.2 Распределением дискретной случайной величины назовем таблицу:

 

Где .

 


 

14. Нормальный закон распределения вероятностей.

Нормальным называется распределение вероятностей непрерывной случайной величины, которое описывается плотностью вероятности

 

 

Нормальный закон распределения также называется законом Гаусса.

 

Нормальный закон распределения занимает центральное место в теории вероятностей. Это обусловлено тем, что этот закон проявляется во всех случаях, когда случайная величина является результатом действия большого числа различных факторов. К нормальному закону приближаются все остальные законы распределения.

 

Можно легко показать, что параметры и , входящие в плотность распределения являются соответственно математическим ожиданием и средним квадратическим отклонением случайной величины Х.

Найдем функцию распределения F(x).

 

 

График плотности нормального распределения называется нормальной кривой или кривой Гаусса.

 

Нормальная кривая обладает следующими свойствами:

 

1) Функция определена на всей числовой оси.

 

2) При всех х функция распределения принимает только положительные значения.

 

3) Ось ОХ является горизонтальной асимптотой графика плотности вероятности, т.к. при неограниченном возрастании по абсолютной величине аргумента х, значение функции стремится к нулю.

 

4) Найдем экстремум функции.

 

 

Т.к. при y’ > 0 при x < m и y’ < 0 при x > m , то в точке х = т функция имеет максимум, равный .

 

5) Функция является симметричной относительно прямой х = а, т.к. разность

 

(х – а) входит в функцию плотности распределения в квадрате.

 

6) Для нахождения точек перегиба графика найдем вторую производную функции плотности.

 

 

При x = m + s и x = m - s вторая производная равна нулю, а при переходе через эти точки меняет знак, т.е. в этих точках функция имеет перегиб.

 

В этих точках значение функции равно .


 

15. Условная вероятность. Независимость событий.

Условной вероятностью события относительно события А и В называется величина

Во многих задачах условные вероятности находятся из контекста проще, чем безусловные.

 

Если нам известна условная вероятность , мы можем вычислить вероятность произведения событий :

Эта формула носит название формулы произведения и обобщается на случай произвольного числа событий:

 

 

Независимость событий

Определение 1.6 События и называются независимыми, если

Замечание 1.1 Если и независимы и , то

 

Аналогично, если А и В независимы (и )

 


 

 

16. Формула полной вероятности. Формула Байеса.

 

Предположим, что событие A может наступить лишь при появлении одного из несовместных событий (гипотез) H1, H2, ..., Hn, образующих полную группу. Событие A уже произошло. Требуется вычислить условные вероятности гипотез (при условии, что событие А произошло).

Пример.

Два цеха штампуют однотипные детали. Первый цех дает 5% брака, второй - 4%. Для контроля отобрано 20 деталей с первого цеха и 10 деталей со второго. Эти детали смешаны в одну партию, и из нее наудачу извлекают одну деталь. Деталь оказалась бракованная. Какова вероятность того, что она из цеха №1?Событие А – деталь оказалась бракованной.

Гипотеза Н1 – деталь изготовлена в 1-м цехе; Р(Н1) = 2/3

Гипотеза Н2 – деталь изготовлена во 2-м цехе; Р(Н2) = 1/3

Условные вероятности события А: PH1(A)=0,05; PH2(A)=0,04

Требуется найти вероятность первой гипотезы в предположении, что событие А уже произошло:

PA(H1) - ?

Используем формулу вероятности гипотез Бейеса, подставив в знаменатель формулу полной вероятности:


 

 

17. Формула Бернулли. Предельные теоремы.

Формула Бернулли

Пусть проводятся независимые испытания (такие, при которых вероятность появления события в каждом испытании не зависит от результатов предыдущих испытаний). Далее, вероятность наступления интересующего нас события в каждом испытании постоянна и равна p. Тогда вероятность того, что рассматриваемое событие появится ровно k раз при n испытаниях (безразлично, в каком порядке), равна

В формуле Бернулли используется число сочетаний.

Повторюсь, что для реализации схемы Бернулли необходимы два условия:

1) независимость проводимых испытаний;

2) p = const (постоянное значение вероятности появления события)

Распределение вероятностей в схеме Бернулли - биномиальное. Наивероятнейшее число появления события (мода) при n испытаниях заключено в пределах np-q ≤ Mo ≤ np+p,

 

Пример.

Система, составленная из четырёх блоков, работает исправно, если за рассматриваемый период выйдет из строя не более двух блоков. Найти вероятность безотказной работы системы блоков, если отказы блоков являются независимыми событиями и вероятность отказа каждого блока равна 1/8.

 

Вероятность того, что за рассматриваемый период ни один из блоков не выйдет из строя:

Вероятность того, что за рассматриваемый период выйдет из строя один блок:

Вероятность того, что за рассматриваемый период выйдет из строя два блока:

Вероятность безотказной работы системы:


 

18. Математическая статистика.

Математи́ческая стати́стика — наука, разрабатывающая математические методы систематизации и использования статистических данных для научных и практических выводов.

 

Во многих своих разделах математическая статистика опирается на теорию вероятностей, позволяющую оценить надёжность и точность выводов, делаемых на основании ограниченного статистического материала (напр., оценить необходимый объём выборки для получения результатов требуемой точности при выборочном обследовании).

 

Предмет и методы математической статистики

 

Математическая статистика — раздел математики, разрабатывающий методы регистрации, описания и анализа данных наблюдений и экспериментов с целью построения вероятностных моделей массовых случайных явлений. В зависимости от математической природы конкретных результатов наблюдений статистика математическая делится на статистику чисел, многомерный статистический анализ, анализ функций (процессов) и временных рядов, статистику объектов нечисловой природы.

 

Выделяют описательную статистику, теорию оценивания и теорию проверки гипотез. Описательная статистика есть совокупность эмпирических методов, используемых для визуализации и интерпретации данных (расчет выборочных характеристик, таблицы, диаграммы, графики и т. д.), как правило, не требующих предположений о вероятностной природе данных. Некоторые методы описательной статистики предполагают использование возможностей современных компьютеров. К ним относятся, в частности, кластерный анализ, нацеленный на выделение групп объектов, похожих друг на друга, и многомерное шкалирование, позволяющее наглядно представить объекты на плоскости.

 

Методы оценивания и проверки гипотез опираются на вероятностные модели происхождения данных. Эти модели делятся на параметрические и непараметрические. В параметрических моделях предполагается, что характеристики изучаемых объектов описываются посредством распределений, зависящих от (одного или нескольких) числовых параметров. Непараметрические модели не связаны со спецификацией параметрического семейства для распределения изучаемых характеристик. В математической статистике оценивают параметры и функции от них, представляющие важные характеристики распределений (например, математическое ожидание, медиана, стандартное отклонение, квантили и др.), плотности и функции распределения и пр. Используют точечные и интервальные оценки.

 

Большой раздел современной математической статистики — статистический последовательный анализ, фундаментальный вклад в создание и развитие которого внес А. Вальд во время Второй мировой войны. В отличие от традиционных (непоследовательных) методов статистического анализа, основанных на случайной выборке фиксированного объема, в последовательном анализе допускается формирование массива наблюдений по одному (или, более общим образом, группами), при этом решение об проведении следующего наблюдения (группы наблюдений) принимается на основе уже накопленного массива наблюдений. Ввиду этого, теория последовательного статистического анализа тесно связана с теорией оптимальной остановки.

 

В математической статистике есть общая теория проверки гипотез и большое число методов, посвящённых проверке конкретных гипотез. Рассматривают гипотезы о значениях параметров и характеристик, о проверке однородности (то есть о совпадении характеристик или функций распределения в двух выборках), о согласии эмпирической функции распределения с заданной функцией распределения или с параметрическим семейством таких функций, о симметрии распределения и др.

 

Большое значение имеет раздел математической статистики, связанный с проведением выборочных обследований, со свойствами различных схем организации выборок и построением адекватных методов оценивания и проверки гипотез.

 

Задачи восстановления зависимостей активно изучаются более 200 лет, с момента разработки К. Гауссом в 1794 г. метода наименьших квадратов.

 

Разработка методов аппроксимации данных и сокращения размерности описания была начата более 100 лет назад, когда К. Пирсон создал метод главных компонент. Позднее были разработаны факторный анализ и многочисленные нелинейные обобщения.

 

Различные методы построения (кластер-анализ), анализа и использования (дискриминантный анализ) классификаций (типологий) именуют также методами распознавания образов (с учителем и без), автоматической классификации и др.

 

В настоящее время компьютеры играют большую роль в математической статистике. Они используются как для расчётов, так и для имитационного моделирования (в частности, в методах размножения выборок и при изучении пригодности асимптотических результатов).


 

19. Случайные величины (С.В.). Дискретные и непрерывные.

Случайная величина — это величина, которая принимает в результате опыта одно из множества значений, причем появление того или иного значения этой величины до её измерения нельзя точно предсказать.

 

Дискретной (прерывной) называют случайную величину, которая принимает отдельные, изолированные возможные значения с определенными вероятностями. Число возможных значений дискретной случайной величины может быть конечным или бесконечным. Дадим более точное определение :

 

Дискретной случайной величиной (ДСВ) называют такую величину, множество значений которой либо конечное, либо бесконечное, но счетное.

 

Непрерывной случайной величиной (НСВ) называют случайную величину, которая может принимать все значения из некоторого конечного или бесконечного промежутка. Множество возможных значений непрерывной случайной величины бесконечно и несчетно.


 

20. Функция распределения случайной величины.

 

Распределение вероятностей — это закон, описывающий область значений случайной величины и вероятности их принятия.