Основные теоремы о вероятностях

Опр. Пусть Р(В)>0. Условной вер-ью события А при условии, что соб. В произошло, наз-ся отношение, обознач-ое Р(А\В)=Р(АВ)/Р(В). Р(АВ) = Р(А\В)•Р(В) – простейш. вариант теоремы умножения вер-тей (верн. и для Р(В) = 0).

Теор. (умножения вер-ей) При n ³ 2 верно следующее: Р(А1А2А n) = Р(А1)•Р(А 2\ А 1)•Р(А 3\ А 1 А 2) •…•Р(А n\А1А2А n-1). Док по индукции: теор. верна для n = 2 и 3, пусть верна и для n = N ³ 3. Докажем, что теор. будет верна для n = N +1. По опред. Р(А1А2А n А n+1) = Р(А1А2А n)•Р(А n+1\ А1А2А n)= Р(А1)•Р(А21)… Р(А n\ А1А2А n-1)•Р(А n+1\ А1А2А n)

Теор. (сложения вер-ей) Для произвольных соб. А и В верно Р(А+В) = Р(А) + Р(В) – Р(АВ). Док: Заметим, что верны след. рав-ва: А + В = А + (В \ АВ) [или Û U(+)] , А•(В \ АВ) = Ø [или Û ∩(•)]. В силу аксиомы аддитивности вер-ти [ Р(А+В) = Р(А)+Р(В), если АВ = Ø ] верно Р(А+В) = Р(А+ (В\АВ)) = Р(А) + Р(В\АВ). Т.к.Р(В\АВ) = Р(В) – Р(АВ), то Р(А+В) = Р(А) + Р(В) – Р(АВ)

 

 

 


Формулы полной вероятности и Байеса, примеры. Понятие распределения вероятностей.

Т. Формула полной вероятности

Пусть событие А1, А2…Аn попарно несовместны и А1, А2…Аn = Ω

AiAj = Ǿ, если i ≠j

Тогда для любого события В, которое происходит с одним и только одним событием

Ai из { А1, А2…Аn } верна формула P(B) = к=1nР(Аk)* Р(В/Аk) (суммируем по к = 1..n)

Д-во:

По условию событие В=A*Ω = В(А12…+Аn) =к=1n P(ВАk)

BAi*Baj = Ǿ, i ≠j

P(B)= к=1n P(ВАk)= к=1n P(Ak)* P(В/Аk), по

простейшему варианту теоремы умножения (P(AB)=P(A)*P(B/A))

Пример.

В урне М белых шаров и (N-M) — черных по схеме выбора без возвращения последовательно извлекаются 2 шара,

Найти вероятность того, что 2-й шар будет белым:

Решение:

Опред. события А1, А2, В

А1 ={1-й шар — белый}

А2 ={1-й шар — черный}

В={2-й шар — белый}

Тогда по формуле полной вероятности:

P(B) = P(A1)*P(B/A1)+P(A2)*P(B/A2)=M/N * M-1/N-1 + N-M/N * M/N-1 = M/N

Формула Байеса.

Пусть события А1, А2…Аn попарно несовместны,

А1 + А2…+Аn=Ω, Р(В)>0

Тогда:

P(Ak│B)=(P(Ak)P(B│Ak))/P(B)=(P(Ak)P(B│Ak))/( к=1n P(Ak) P(B│Ak)), (k=1,…n)

Д-во:

По теореме умножения вероятностей:

P(B Ak) = P(B) P(Ak│B) = P(Ak) P(B│Ak).

Поэтому P(Ak│B)= (P(Ak) P(B│Ak))/P(B).

Но по формуле полной вероятности:

P(B)= к=1n P(Ak) P(B│Ak).

Формулу Байеса можно интерпретировать следующим образом. Назовем события Аk гипотезами. Пусть событие В — результат некоторого эксперимента. Вероятности Р(Аk)— это априорные вероятности гипотез, вычисляемые до постановки опыта, а условные вероятности P(Ak│В) — это апостериорные вероятности гипотез, вычисляемые после того, как стал известен результат опыта В.

Пример.

Имеем 2 урны по N шаров в каждой. В 1-й — M1 белых шаров, а во второй М2 — белых шаров. Эксперимент состоит: сначала, с вероятностью ½ выбирается 1-я или 2-я урна, а затем из неё случайно извлекается (с возвращением) n шаров. Пусть событие В состоит в том, что вынутые шары — белые

Имеем 2 гипотезы:

1) А1={выбрана 1-я урна}

2) А2={выбрана 2-я урна}

По условию априорного распределения вероятностей:

P(A1)=P(A2)= 1/2

Далее, легко находим вероятности Р(В│Аk) = (Mk/N)n/

Формула Байеса дает апостериорные вероятности:

Р(Аk│В) = (1/2 (Mk/N)n)/(1/2 (M1/N)n + ½ (M2/N)n)=Mkn/(M1n+ M2n), k=1,2.

Если М1<M2, то при n→¥ P(A2│B)=1/(1+(M1/M2)n)→1, т.к. М1/M2<1

 


Понятие независимых событий. Схема независимых испытаний Бернулли, формула Бернулли, доказательство её корректности, примеры.

Опр. События А и В называются независимыми, если Р(АВ) = Р(А) Р(В). Если Р(АВ) ≠ Р(А) Р(В), события А и В называются зависимыми.

Если Р(В)=0, то событие В является независимым по отношению к любому событию А.

Пример.

Из колоды в 52 карты (13 карт каждой масти) случайно вынимается карта. Рассмотрим события А= вынут туз, В= вынута карта бубновой масти. Тогда событие АВ означает, что вынут бубновый туз.

Т.к. справедливо равенство Р(АВ)= Р(А)Р(В), события А и В независимы.

Опр. События А1, А2…Аn независимы в совокупности, если для любого набора 1≤i1<i2<…<im, 2≤m≤n справедливо равенство

Р(Ai1,Аi2…Аim)=P(Ai1) P(Ai2)…P(Aim).

Схема Бернулли.

Повторные независимые испытания называются испытаниями Бернулли, если каждое испытание имеет только 2 возможных исхода, и вероятности исходов остаются неизменными для всех испытаний. Пусть один исход испытания называется успех (У), а другой — неудача (Н), вероятность успеха равна p, а вероятность неудачи равна q, q=1-p. Пусть испытание проводится n раз. Тогда вероятностное пространство имеет вид

Ω={ω=(x1,…xn), xk=У,Н, k=1,…n}.

Независимость испытаний означает, что Р(x1,…xn)=Р(x1)…Р(xn), где Р(xk)=p, если xk=У, Р(xk)=q, если xk=Н.

Часто нас интересует не порядок появления успехов вn независимых испытаниях Бернулли, а их общее число. Число успехов может быть равно 0,1,2,…n и задача состоит в том, чтобы найти вероятность события, состоящего в том, что в серии из nнезависимых испытаний Бернулли произошло k успехов.

Пусть Sn — число успехов из серии независимых испытаний Бернулли.

Т.При любом k = 0,1,…n справедливо равенство

P(Sn=k)=Cnkpkqn-k

Д-во:

В вероятностное пространство входят элементарные события вида:

ω=(Н…НУН…НУН…НУН…Н).

Сколько таких элементарных событий? Столько, сколькими способами можно выбрать из n номеров k номеров (без учета порядков), т.е. Cnk. Вероятность каждого такого события равна pkqn-k, т.к. испытания — независимы.

Замечание:В самом деле, справедливо равенство: k=0n Cnk pk qn-k =(p+q)n=1

Случайные величины: определение, функция распределения случайной величины и её свойства, независимые случайные величины, определение основных числовых характеристик случайной величины (дискретный и непрерывный случаи), примеры.

Введем центральное в теории вероятности понятие случайной величины.

 

Опр.Пусть (Ω, А, Р) — вероятностное пространство. Случайной величиной X называется числовая функция, определенная на Ω и такая, что определена вероятность F(x)=P{X<x}=P{ω│P(ω)<x}. F(x) называется функцией распределения случайной величины X.

Замечание:

Если вероятностное пространство Ω конечно, то любая числовая функция, заданная на Ω, является случайной величиной.

Свойства функции распределения:

1. При x1<x2 P{x1≤X<x2}=F(x2)-F(x1)

2. F(x)#(не обязательно строго).

3. limx→-∞F(x)=0, limx→∞F(x)=1

4. F(x) непрерывна слева(т.е. limxx0 - 0F(x)=F(x0)).

Свойство 1 простое следствие из аксиом вероятностного пространства. Свойство 2 сразу следует из 1. Свойство 3 следует из аксиомы счетной аддитивности.

 

Опр. Случайные величины X и Y называются независимыми, если P{X<x, Y<y}= P{X<x}P{Y<y} (другими словами, события {X<x} и {Y<y} независимы)

 

Пространство элементарных событий дискретно, когда оно либо конечно, либо счетно.

Закон распределения дискретной случайной величины задается в виде таблицы ряда распределений

Пример:

Рассмотрим схему n независимых испытаний Бернулли. Определим случайные величины

 

Xi =1, если в i-м испытании успех, 0, если неудача.

Пусть Sn = X1+X2+…+Xn. Тогда случайная величина Sn — число успехов в серии n независимых испытаний Бернулли.

 

Опр. Математическим ожиданием дискретной случайной величины X называется сумма

MX=∑xi P{X=xi}, где суммирование ведется по всем значениям xi случайной величины X.

Опр. Дисперсия (рассеяние) случайной величины X — DX=M(X-MX)2, где X-MX отклонение случайной величины от мат. ожидания.

Опр. Cov(X,Y)=M((X-MX)(M-MY)) — ковариацияслучайных величин X и Y, заданных на одном и том же пространстве элементарных событий.

Опр. Пусть на одном и том же вероятностном пространстве заданы случайные величины X и Y. Коэффициентом корреляции X и Y называется число ρ(X,Y)=(Cov(X,Y))/√DX DY