НЕОБХОДИМЫЕ СВЕДЕНИЯ ИЗ ТЕОРИИ

ВЕРОЯТНОСТЕЙ

Общие понятия и определения

Как мы уже говорили, теория вероятностей — это раздел

математики, который занимается изучением закономерностей

в случайных явлениях.

Случайное явление — это явление, которое при многократ-

ном проведении одного и того же опыта (эксперимента) каждый

раз протекает несколько по-иному. Теория вероятностей рас-

сматривает не сами явления, а их математические модели. Ма-

тематическая модель описывает изучаемое явление при помо-

щи определенных символов и операций над ними.

Под опытом (экспериментом) будем понимать некоторую

производимую совокупность условий, в которых наблюдается

изучаемое явление. Если результат опыта может варьировать-

ся при его повторении, то говорят об опыте со случайным ис-

ходом. Основные условия, при которых протекает опыт, долж-

ны сохраняться. Опыт не обязательно должен быть поставлен

людьми, человек может выступать и в качестве наблюдателя.

Примерами случайных явлений являются: курс националь-

ной валюты, выпадение грани с цифрой шесть при бросании

игральной кости, выигрыш на рулетке в казино, результат из-

мерения горизонтального угла с помощью теодолита, длитель-

ность работы стиральной машины и т. д.

Классификация событий

Если событие всегда происходит в результате опыта со слу-

чайным исходом, то оно называется достоверным. Такие собы-

тия мы будем обозначать буквой U. Если в урне лежат только

красные шары, то появление красного шара из урны есть досто-

верное событие. Надо иметь в виду, что в реальной действитель-

ности мы имеем дело с почти достоверными событиями.

Если событие никогда не происходит в результате опыта со

случайным исходом, то оно называется невозможным и обозна-

чается ∅. Если в урне лежат только белые шары, то появление

красного шара из урны есть невозможное событие. В реальной

жизни мы имеем дело с почти невозможными событиями.

Случайным событием называется событие, которое в ре-

зультате опыта со случайным исходом может произойти, а

может и не произойти. Случайные события мы будем обозна-

чать заглавными буквами латинского алфавита: А, В, С,… На-

пример, выпадение решки при бросании монеты — случайное

событие.

Событием, противоположным событию А, является собы-

тие , которое происходит тогда, когда не происходит собы-

тие А.

Например, производится стрельба по мишени. Собы-

тие А — попадание в мишень, а событие — промах.

Непосредственный исход опыта называется элементар-

ным событием и обозначается ω.

Множество всех элементарных событий данного конкрет-

ного опыта называется пространством элементарных событий

этого опыта и обозначается Ω.

Например, в опыте бросания игральной кости шесть эле-

ментарных исходов ω1, ω2,…, ω6, т. е. Ω = {ω1, ω2, ω3, ω4, ω5, ω6}.

Событие удобно иллюстрировать с помощью кругов Эйле-

ра. Достоверное событие U мы будем изображать прямоуголь-

ником, случайное событие А — кругом внутри прямоугольника,

а противоположное к нему событие — область внутри прямо-

угольника, но вне круга (рис. 2.1).

А

U

Рис. 2.1

Алгебра событий

Введем понятия суммы и произведения событий.

Определение. Суммой (объединением событий) А1, А2,... Аn

называется событие, происходящее только в том случае, когда

происходит хотя бы одно из данных событий (или А1 или А2, …,

или Аn, или все вместе). Обозначают сумму событий так:

.

На рис. 2.2. показано изображение

суммы двух событий А+В с помощью

кругов Эйлера.

Определение. Произведением (пе-

ресечением) событий А1, А2,... Аn назы-

вается событие, которое происходит

только в том случае, когда все указан-

ные события появляются одновремен-

но, т. е. происходит и событие А1, и А2 ...

и событие Аn. Обозначается произведение событий следующим

образом

U

А B

Рис. 2.2

.

На рис. 2.3. показано изображение

произведения двух событий А × В с

помощью кругов Эйлера.

Определение. События А1, А2, ... Аn

называются несовместными, если их

произведение есть невозможное собы-

тие, т. е. А1, А2, ... Аn = ∅. Заметим, что

если события попарно несовместны, то

они несовместны в совокупности. Не-

совместными являются все элементарные события некоторого

опыта со случайным исходом, например, А × = ∅.

На рис. 2.4. показаны два несов-

местных события А и В.

Определение. Полной группой

событий называется множество по-

парно несовместных событий, одно

из которых обязательно произойдет

в результате опыта со случайным ис-

ходом, т. е. сумма которых есть досто-

верное событие.

, АiАj = ∅ i j

Все элементарные события ωi про-

странства элементарных событий Ω

составляют полную группу событий.

Например, полную группу событий со-

ставляют события А и , т. е. А + = U.

Поэтому часто достоверные события

U обозначают символом Ω, так же как

пространство элементарных событий.

Определение. Событие А называ-

ется частным случаем события В, если при появлении собы-

тия А появляется и событие В, т. е. А влечет В. Обозначается

А В

U

Рис. 2.3

А В

U

Рис. 2.4

Рис. 2.5

В

U

А

этот факт следующим образом: А ⊂ В. На кругах Эйлера А есть

собственное подмножество множества В (рис. 2.5).

Приведем некоторые правила алгебры событий:

1) А + В = В + А; (А + В) + С = А + (В + С);

2) A + U = U; A + ∅ = A; A + A = A;

3) A × B = B × A; A × U = A; A × ∅ = ∅;

4) A × A = A; A × (B + C) = A × B + A × C; .

Приведенные правила следуют

из определения суммы, произведения

событий и противоположного события.

С помощью них можно, например, до-

казать, что сумму двух любых собы-

тий можно представить в виде сум-

мы двух несовместных событий, т. е.

А + В =А + × В (рис. 2.6).

Вероятность события

Вероятность события — это мера его объективной возмож-

ности. Но данное определение вероятности не является мате-

матическим, так как не дает возможности оценить вероятность

количественно. Существует несколько математических опре-

делений вероятности. Самыми старыми из этих определений

являются статистическое и классическое определения.

Статистическое определение вероятности.Предположим,

что мы можем проводить некоторый опыт со случайным исхо-

дом (например, бросание монеты на некоторую поверхность)

неоднократно, примерно в одних и тех же условиях. В резуль-

тате этого опыта может появиться событие А = {выпал герб}.

Определение. Относительной частотой (или, как говорят в

статистике, частостью) события А (f(А)) называется отноше-

ние числа опытов μ (его называют в статистике частотой собы-

тия А), в которых появилось событие А, к общему числу прове-

денных опытов (n), т. е.

Рис. 2.6

U

А А × В

. (2.1)

Практика показывает, что для широкого круга случайных

явлений при неограниченном увеличении числа опытов, т. е.

при n → ∞, относительная частота события А стабилизирует-

ся и по вероятности приближается к некоторому неслучайному

числу. Например, при бросании монеты относительная частота

появления орла при неограниченном увеличении числа опытов

стремится к числу 0,5. Приведем свойства относительной час-

тоты события А.

1) f(U) = 1, так как μ = 1.

2) f(∅) = 0, так как μ = 0.

3) 0 ≤ f(А) ≤ 1, т. е. относительная частота случайного собы-

тия заключена между нулем и единицей и в частном случае мо-

жет быть нулем или единицей.

4) Если события А1, А2, ... Аn несовместны, то выполняется

равенство

f(А1 + А2 +…+ Аn) = f(А1) + f(А2) +…+ f(Аn).

Статистическое определение вероятности.Вероятностью

события А (Р(А)) называется число, около которого колеблется

относительная частота события А (f(А)) при неограниченном

увеличении числа опытов (n → ∞). То есть можно записать

(2.2)

или

, (2.3)

где ε > 0 — малое положительное число.

Устойчивость относительных частот при большом коли-

честве испытаний является следствием закона больших чисел.

Характер приближения относительной частоты к вероят-

ности при n → ∞ отличается “от стремления к пределу” в мате-

матическом анализе.

Нет ничего невозможного в том, что относительная частота

события при n → ∞ сильно отклонится от ее вероятности, но та-

кое отношение настолько маловероятно, что его можно не при-

нимать в расчет.

Заметим, что все свойства относительных частот верны и

для вероятностей.

Классическое определение вероятности.Оно было впер-

вые четко сформулировано в работе швейцарского математи-

ка Якоба Бернулли, опубликованной в 1713 г. Введем понятие

равновозможного события. События называются равновозмож-

ными, если по условиям обыта ни одно из них не является пред-

почтительным по отношению к другим с точки зрения возмож-

ности их появления.

В этом случае опыт будет обладать симметрией исходов по

отношению к этим событиям.

Классическое определение вероятности можно использо-

вать только в том случае, если опыт будет классическим. Опыт

называется классическим, если он приводит к множеству со-

бытий, которые удовлетворяют условиям:

1) они попарно несовместны;

2) равновозможны;

3) образуют полную группу событий.

Такие события называются случаями и обозначаются ω.

Заметим, что они могут быть элементарными событиями.

Определение. Если опыт является классическим, то веро-

ятность события А (Р(А)) находится как отношение числа слу-

чаев, благоприятствующих событию А (m), к общему числу

случаев (n1).

. (2.4)

Формула (2.4) дает возможность непосредственно вычис-

лять вероятности, но недостатком ее является то, что в реаль-

ной действительности классические опыты встречаются редко

в искусственно созданных ситуациях. Примером классического

опыта является игра в кости, которые перед каждым броском

тщательно перемешиваются, чтобы соблюдалась равновозмож-

ность наблюдаемых событий. Если мы бросаем одну игральную

кость, то вероятность появления каждой ее грани равна 1/6.

Классический опыт может быть организован по так назы-

ваемой урновой схеме. Под урной понимают некоторый ящик, в

котором находятся одинаковые по весу и размерам шары раз-

личных цветов. После перемешивания шары вынимаются из

урны случайным образом. Поэтому вероятность вытащить ка-

кой-либо шар из n шаров будет равна 1/n.

Для подсчета числа возможных исходов классического

опыта часто используют формулы комбинаторики, в частности

формулы числа сочетаний из n элементов по m:

− без повторений:

, (2.5)

где n! — читается n-факториал и вычисляется по формуле

n! = 1 × 2 × 3… × n;

− с повторениями:

.

Пример 2.1

Предположим, что в урне находятся 9 шаров: четыре крас-

ных шара и пять синих шаров. Из нее вынимаются два шара.

Надо найти вероятность того, что оба они будут красными.

Введем событие А = {оба шара красные} и используем фор-

мулу (2.4):

Здесь — количество исходов, благоприятствующих

событию А; — общее количество исходов.

Аксиоматическое определение вероятности.Как и другие

разделы математики, теорию вероятностей можно развивать

аксиоматическим методом.

Аксиоматическое построение теории вероятностей было

осуществлено в 30-х гг. XX в. А. Н. Колмогоровым. Приведем

его упрощенное определение.

Вероятностью называется функция событий, которая по-

рождена некоторым опытом и имеющая следующие свойства:

1) вероятность достоверного события равна единице Р(U) = 1;

2) вероятность невозможного события равна нулю Р(∅) = 0;

3) вероятность случайного события лежит между нулем

и единицей, в частности принимая значение ноль и единица

0 ≤ Р (А) ≤ 1;

4) если события А1, А2,... Аn попарно несовместны, то веро-

ятность их суммы равна сумме их вероятностей

;

5) Если счетное бесконечное число событий А1, А2,... Аn, …

попарно несовместно, то вероятность их суммы равна суме их

вероятностей, т. е.

.

Аксиома 5 вводится отдельно, так как она не выводится из

четвертой.

Кроме приведенного существуют и другие аксиоматичес-

кие определения вероятности.

Аксиоматическое определение, в отличие от статистичес-

кого и классического, не позволяет непосредственно вычислять

значение вероятности, но из него вытекает ряд следствий. На-

пример, можно получить формулу (2.4), установить, что сумма

вероятностей полной группы событий равна единице, т. е.

.

В частности получаем

Р(А) + Р( ) = 1, (2.6)

т. е. сумма вероятностей противоположных событий равна 1.

Субъективное определение вероятности.В тех случаях,

когда проводимый опыт не является классическим и отсутству-

ют данные статистических наблюдений или их недостаточное

количество для оценки вероятности, прибегают к экспертному

оцениванию вероятности на основе мнения экспертов.

Определение. Субъективным определением вероятности

называются вероятности, удовлетворяющие аксиомам 1−5 ак-

сиоматического определения, которые приписываются собы-

тиям на основе мнения экспертов.

Как правило, в оценке вероятности события участвуют не-

сколько экспертов, и их мнения усредняют, учитывая опыт каж-

дого из них. Оценка экспертов важна в тех случаях, если плани-

руемый исход связан с большими материальными затратами.

Алгебра вероятностей

Рассмотрим правила, которые позволяют по вероятностям

одних событий находить вероятности других событий.

Сначала введем понятие условной вероятности. Предполо-

жим, что А и В — события, являющиеся результатом некоторо-

го опыта, причем наступление события А зависит от появления

события В. Понятие условной вероятности вводится для харак-

теристики зависимости одних событий от других.

Определение. Условной вероятностью события А при ус-

ловии, что произошло событие В, называется отношение веро-

ятности произведения событий А и В к вероятности события В,

если последняя отлична от нуля. Обозначается условная веро-

ятность события А следующим образом: Р(А\В). И согласно оп-

ределению, она равна

, (2.7)

Р(В) ≠ 0.

Аналогично условная вероятность события В при условии,

что произошло событие А обозначается следующим образом:

Р(В\А) и находится по формуле

, (2.8)

Р(А) ≠ 0.

Из формул (2.7.) и (2.8) следует правило умножения веро-

ятностей для двух любых событий:

Р(А × В) = Р(А) × Р(В\А) = Р(В) × Р(А\В), (2.9)

т. е. вероятность произведения двух событий равна произведе-

нию вероятности одного из них на условную вероятность дру-

гого при условии, что первое событие произошло. Используя

формулу (2.9), получим правило умножения вероятностей для

трех событий А1, А2, А3:

Р(А1 × А2 × А3) = Р((А1 × А2) × А3) =

= Р(А1 × А2) × Р(А31 × А2) = (2.10)

= Р(А1) × Р(А21) × Р(А31 × А2)

В формуле (2.10) Р(А31 × А2) означает условную вероят-

ность события А3, если произошли события А1и А2.

Используя принцип математической индукции, можно обоб-

щить формулу (2.10) на любое конечное количество событий.

В результате получаем

Р(А1 × А2 × А3… × Аn) = Р(А1) × Р(А21) ×

× Р(А31 × А2) × … × Р(Аn\А1 × А2 × А3 ×… × Аn-1)

(2.11)

Правило умножения вероятностей значительно упроща-

ется, если события, образующие произведение, независимы.

Событие В называется не зависимым от события А, если его

условная вероятность равна безусловной, т. е. Р(В\А) = Р(В).

Аналогично, событие А называется не зависимым от собы-

тия В, если его условная вероятность равна безусловной, т. е.

Р(А\В) = Р(А).

Лемма. Если событие В не зависит от события А, то и собы-

тие А не зависти от события В.

Если события А и В независимы, то правило умножения

вероятностей (2.9) примет вид

Р(А × В) = Р(А) × Р(В). (2.12)

т. е. вероятность произведения двух независимых событий рав-

на произведению их вероятностей.

Определение. События А1, А2, А3 ... Аn называются независи-

мыми в совокупности, если каждое из них не зависит от произве-

дения любого числа остальных и от каждого в отдельности.

Правило умножения вероятностей (2.11) в этом случае

примет вид:

Р(А1 × А2 × А3 × … × Аn) = Р(А1) × Р(А2) × Р(А3) × … × Р(Аn),

или более кратко

(2.13)

т. е. вероятность произведения конечного числа независимых

событий равна произведению вероятностей этих событий.

Пример 2.2

Предположим, что студентка основательно проштудиро-

вала 70 из 90 вопросов к экзамену по теории вероятностей и ма-

тематической статистике. В каждом билете содержатся 3 воп-

роса. Найти вероятность того, что в билете, который вытащит

студентка, она будет знать ответы на все три вопроса.

Введем 3 события:

А1 = {студентка знает ответ на первый вопрос билета}.

А21 = {студентка знает ответ на второй вопрос билета

при выполнении события А1}.

А31 × А2 = {студентка знает ответ на третий вопрос биле-

та при выполнении событий А1 и А2}.

Используя формулу (2.10) находим

Вероятности Р(А1); Р(А21); Р(А31 × А2) находятся по

формуле (2.4).

Теперь получим правило сложения для совместных со-

бытий.

Если рассматриваемые события попарно несовместны, то

для нахождения вероятности их суммы используется четвер-

тая аксиома аксиоматического определения вероятности.

Сначала рассмотрим правила сложения для двух совмест-

ных событий.

Теорема 2.1.Вероятность суммы двух совместных событий

равна сумме их вероятностей минус вероятность их произве-

дения, т. е.

Р(А + В) = Р(А) + Р(В) — Р(А × В) (2.14)

Доказательство этой теоремы мы не приводим, его можно

найти в любом учебнике по теории вероятности, например [1, 8,

25]. Используя формулу (2.14), получим правило сложения для

трех совместных событий А1, А2, А3:

Р(А1 + А2 + А3) = Р(А1 + А2) + Р(А3) −

Р((А1 + А2) × А3) = Р(А1) + Р(А2) −

Р(А1 × А2) + Р(А3) − (Р(А1 × А3) +

+ Р(А2 × А3)) = Р(А1) + Р(А2) + Р(А3) − Р(А1 × А2) −

Р(А1 × А3) − Р(А2 × А3) + Р(А1 × А2 × А3). (2.15)

Используя метод математической индукции, получим пра-

вило сложения вероятностей для любого конечного количества

совместных событий.

Р(А1 + А2 + А3 + … + Аn) = Р(А1) +

+ Р(А2) + Р(А3) + … + Р(Аn) (Р(А1 × А2) +

+ Р(А1 × А3) + … + Р(Аn-1 × Аn)) +

+ Р(А1 × А2 × А3) + Р(А1 × А2 × А4) + +

+ Р(Аn-2 × Аn-1 × Аn)) + + (-1)n-1 Р(А1 × А2 × × Аn) (2.16)

Часто при больших n вместо формулы (2.16) используют

равенство

, (2.17)

где — событие, противоположное событию Ai.

Если события А1, А2,... Аn взаимно независимы, то равенс-

тво (2.17) примет вид

. (2.18)

Пример 2.3.Задача де Мере.

Найти вероятность выпадения хотя бы один раз двух шес-

терок при 24 бросаниях пары игральных костей.

Данный опыт является классическим, поэтому вероятность

выпадения двух шестерок при одном бросании пары игральных

костей будет равна .

Перейдем к противоположному событию, т. е. найдем веро-

ятность того, что при одном бросании пары игральных костей

две шестерки не выпадут.

По формуле (2.6) получим (1 − 1/36). А вероятность того,

что это событие не случится ни разу при 24 бросаниях в соот-

ветствии с формулой (2.13) будет равна

(1 − 1/36)24 ≈ 0,507.

Поэтому по формуле (2.18) вероятность того, что две шес-

терки выпадут хотя бы один раз при 24 бросаниях, будет равна

1 − (1 − 1/36)24 ≈ 1 − 0,507 = 0,493.

Случайные величины

Понятие случайные величины является одним из важней-

ших в теории вероятностей. Под случайной величиной понима-

ют величину, которая в результате опыта со случайным исхо-

дом принимает то или иное значение.

Случайные величины будем обозначать заглавными латин-

ским буквами X, Y, Z, …, а принимаемые ими значения — малы-

ми буквами x1, x2, …, y1, y2, ..., z1, z2,… Все возможные значения

некоторой случайной величины образуют множество Е, кото-

рое назовем множеством возможных значений этой случайной

величины.

Примерами случайных величин являются:

1) Опыт — бросание игральной кости; случайная величи-

на Х — число выпавших очков; множество возможных значе-

ний Е = {1, 2, 3, 4, 5, 6}.

2) Опыт — выборы; случайная величина Y — число голо-

сов, которое набрал некоторый кандидат; множество Е — це-

лые положительные числа, максимальное значение не превы-

шает числа избирателей.

3) Опыт — измерение длины линии светодальномером;

случайная величина Z — результат измерения, выраженный

в сантиметрах; множество возможных значений — некоторый

участок действительной оси 0Z, Z > 0.

Из приведенных примеров видно, что случайные величины

бывают двух типов: у одних множество значений Е конечно или

счетно (примеры 1 и 2), а у других оно занимает какой-то учас-

ток числовой оси, границы которого могут быть как фиксиро-

ванными (теоретически это пример 3), так и нефиксированны-

ми, а множество Е является несчетным. Случайные величины

первого типа называют дискретными, а второго — недискрет-

ными. Недискретные случайные величины подразделяются на

непрерывные, у которых множество возможных значений не-

счетно, и смешанные, которые являются промежуточной раз-

новидностью между дискретными и непрерывными случайны-

ми величинами. Их мы в дальнейшем рассматривать не будем,

а желающие могут ознакомиться с ними, например, в книге [8].

В принятой в теории вероятностей теоретико-множест-

венной трактовке случайная величина Х является функцией

элементарного случайного события, т. е. Х = ϕ(ω), где ωεΩ; Ω —

пространство элементарных событий. Множество Е возмож-

ных значений случайной величины Х состоит из всех значений,

которые принимает функция ϕ(ω). Если множество Е конечно

или счетно, то случайная величина Х называется дискретной, а

если несчетно — непрерывной.

Реально значения случайной величины, полученные в ре-

зультате некоторого опыта, выражаются в определенных еди-

ницах: метрах, градусах, тоннах, амперах и измеряются с оп-

ределенной точностью, поэтому в реальной действительности

мы имеем дело с дискретными случайными величинами. Но в

тех случаях, когда точность измерения высока, количество из-

мерений велико и они расположены очень тесно на числовой

оси, проще рассматривать данную величину как непрерывную,

а множество ее возможных значений — сплошной отрезок (не-

счетное множество) числовой оси.

Для полного описания случайной величины необходимо

знать ее закон распределения. Законом распределения слу-

чайной величины называется любое правило (таблица, график,

функция), которое позволяет находить вероятности всевоз-

можных событий, связанных со случайной величиной. Закон

распределения случайной величины имеет ряд форм. Рассмот-

рим эти формы.

Для дискретной случайной величины в качестве закона

распределения можно использовать ряд распределения.

Рядом распределения дискретной случайной величины Х

называется таблица, в верхней строке которой расположены по

возрастанию все возможные значения случайной величины Х:

х1, х2, х3..., хn, а в нижней — соответствующие им вероятности:

Р1, Р2, Р3..., Рn, где Рi = P{X = хi} — вероятность того, что случай-

ная величина Х примет значение хi.

Ряд распределения случайной величины Х имеет вид

Х:

х1 х2 х3 … хn

Р1 Р2 Р3 … Рn

Так как события {Х = хi}, , n попарно несовместны и

образуют полную группу событий, то

т. е. единица распределена между всеми возможными значени-

ями случайной величины.

Графическим изображением ряда распределения является

многоугольник распределения. На оси абсцисс откладываются

все возможные значения случайной величины Х, а на оси орди-

нат — соответствующие им значения вероятностей (рис. 2.7).

Недостатком ряда распределения является то, что он может

быть построен только для дискретных случайных величин.

Наиболее универсальной формой закона распределения,

которая может использоваться и для дискретных, и для не-

прерывных случайных величин, является функция распреде-

ления.

Определение. Функцией распределения случайной величи-

ны Х называется вероятность того, что данная случайная вели-

чина примет значение меньшее, чем некоторое заданное х, т. е.

F(x) = P{X < x}. (2.19)

Функцию F(x) иногда называют интегральной функцией

распределения. Геометрически формула (2.19), интерпретиру-

емая как вероятность того, что случайная точка X попадет ле-

вее заданной точки х, показана на рис. 2.8.

x

X < x

x

Рис. 2.8

P

Pne1

0 xne1 xn x

P2

Pn

P1

P3

x3 x2 x1

Рис. 2.7

Из геометрической интерпретации можно получить основ-

ные свойства функции распределения:

1) F(x) является неубывающей функцией своего аргумен-

та, т. е. при х2 > х1 F(х2) ≥ F(х1);

2) F(-∞) = 0;

3) F(+∞) = 1;

4) вероятность попадания на промежуток [a,b] равна при-

ращению функции распределения на этом промежутке, т. е.

Р{a X b} = F(b) − F(a);

5) множество значений функции распределения распола-

гается на отрезке [0;1], т. е. 0 ≤ F(x) ≤ 1.

Формула для вероятности отдельного значения случайной

величины Х через функцию распределения имеет вид:

. (2.20)

Значение предела (2.20) зависит от того, непрерывна фун-

кция F(x) в точке а или разрывна. Если функция F(x) в некото-

рой точке а непрерывна, то предел (2.20) равен нулю. Если же

функция распределения в точке а имеет разрыв первого рода,

то предел (2.20) равен величине этого скачка. Но в любом слу-

чае вероятность события {X = a} равна величине скачка функ-

ции распределения в точке а (равен этот скачок нулю или нет).

В этом случае, если функция распределения на своей облас-

ти определения непрерывна, вероятность каждого отдельного

значения случайной величины Х равна нулю.

Заметим, что отрезок [a, b] содержит несчетное количество

элементов, а аксиомы Колмогорова вводились для счетного ко-

личества событий. Поэтому из того, что событие {X = a} имеет

вероятность, равную нулю, не следует, что это событие не по-

явится, оно при неоднократном воспроизведении опыта будет

появляться, но достаточно редко.

Если известен ряд распределения случайной величины Х,

можно получить ее функцию распределения, и наоборот. Для

этого можно использовать формулу

. (2.21)

Пример 2.4

Дан ряд распределения случайной величины Х

X:

x 1 2 3 4 5

P 0,2 0,1 0,4 0,1 0,2

Используя формулу (2.21) найдем функцию распределе-

ния и изобразим ее на рис. 2.9.

1,2

0,8

0,6

0,4

0,2

0 1 2 3 4 5 6 7

F(x)

x

Рис. 2.9

Можно сделать вывод, что функция распределения любой

дискретной случайной величины — это разрывная ступенча-

тая функция, скачки которой находятся в точках, которые со-

ответствуют возможным значениям случайной величины Х, и

равны вероятностям этих значений.

Если число возможных значений дискретной случайнос-

ти величины Х велико, а интервалы между этими значениями

малы, то число скачков функции распределения увеличива-

ется, а сами эти скачки уменьшаются. Ступенчатая функция

распределения будет приближаться к плавной кривой. Поэ-

тому естественно аппроксимировать функцию распределения

непрерывной кривой. Условимся также считать функцию рас-

пределения F(Х) не только непрерывной в каждой точке своей

области определения, но и дифференцируемой везде, кроме

отдельных точек. График непрерывной функции распределе-

ния показан на рис. 2.10.

F(x)

0,8

0,6

0,4

0,2

x

Рис. 2.10

Так как непрерывная функция F(Х) не имеет скачков, то

вероятность любого значения непрерывной случайной величи-

ны равна нулю, т. е. P{Х = a} = 0 для ∀a. Поэтому для непрерыв-

ной случайной величины вводится специальная разновидность

закона распределения — плотность распределения вероятнос-

тей (плотность распределения, плотность вероятностей), ко-

торую мы обозначим f(x). Она равна производной от функции

распределения, т. е.

. (2.22)

Функцию f(х) часто называют дифференциальной функ-

цией распределения. График плотности распределения назы-

вается кривой распределения (рис. 2.11).

f(x)

x dx x

Рис. 2.11

На рис. 2.11 — это элементарный участок, который при-

мыкает к точке х. Вероятность попадания случайной величи-

ны х на участок с точностью до бесконечно малых высших

порядков равна f(х). Величина f(х)называется элементом

вероятности для точки x и геометрически равна площади эле-

ментарного заштрихованного прямоугольника. Приведем неко-

торые основные свойства плотности распределения:

1. f(х) — неотрицательная функция своего аргумента х,

т. е. f(x) ≥ 0.

2. Площадь, ограниченная кривой распределения и осью

абсцисс равна единице, т. е.

. (2.23)

3. Вероятность попадания случайной величины в интервал

(а;b) будет выражаться через плотность распределения следу-

ющим образом:

. (2.24)

Так как для непрерывной случайной величины вероят-

ность события {X = а} равна нулю, то мы ставим строгое нера-

венство в формуле (2.24).

4. Функция распределения выражается через плотность

распределения следующим образом:

. (2.25)

Данное равенство следует из формулы (2.24). Замети, что

функция распределения размерности не имеет, а размерность

плотности распределения обратна размерности случайной ве-

личины X.

Закон распределения полностью характеризует изучае-

мую случайную величину. Например, известно, что случайные

ошибки астрономических или геодезических измерений подчи-

няются нормальному закону. Но очень часто мы не знаем закона

распределения изучаемой случайной величины. В этом случае

мы можем охарактеризовать изучаемую случайную величину

набором числовых параметров, которые характеризуют наибо-

лее существенные черты закона распределения случайной ве-

личины. Эти параметры и называют числовыми характеристи-

ками случайной величины.

Сначала рассмотрим характеристики положения, которые

фиксируют положение случайной величины на числовой оси. К

ним относятся математическое ожидание, мода, медиана.

Математическиv ожиданием, или средним взвешенным

значением дискретной случайной величины X, называется

сумма произведений всех ее значений на вероятность этих зна-

чений, т. е.

. (2.26)

Вместо обозначения M[х] часто применяется Мх, , m.

Например, для данных примера 2.4 получим:

M[х] = 1 × 0,2 + 2 × 0,1 + 3 × 0,4 + 4 × 0,1 + 5 × 0,2 = 3.

Если случайная величина X непрерывна, то ее математи-

ческое ожидание находится по формуле

. (2.27)

Математическое ожидание случайной величины тесно

связано со средним арифметическим ее наблюдаемых зна-

чений при большем числе наблюдений. При большом числе

опытов среднее арифметическое наблюдаемых значений слу-

чайной величины приблизительно приравнивается к ее мате-

матическому ожиданию. Это одно из проявлений закона боль-

ших чисел.

Модой случайной величины Х называются ее наиболее ве-

роятные значения, т. е., то значение, для которого вероятность

Pi или плотность распределения f(x) достигает максимального

значения. Мода будет обозначена Mo. Для данных примера 2.4

мода равна 3, т. е. Mo = 3.

В том случае, если вероятность или плотность распреде-

ления достигает максимума не в одной, а в нескольких точках,

распределение называют полимодальным (рис. 2.12).

x

f(x)

Рис. 2.12

Медиана, которую мы будем обозначать Ме, применяется,

как правило, для непрерывных случайных величин. Медианой

случайной величины Х называется такое ее значение, для ко-

торого выполняется равенство

. (2.28)

Геометрически медиана — абсцисса такой точки на оси 0Х,

для которой площади под кривой распределения слева и спра-

ва от нее одинаковы и равны 1/2 (рис 2.13).

f(x)

Me x

1/2 1/2

Рис. 2.13

Если распределение симметрично, то математическое

ожидание, мода и медиана совпадают.

Кроме характеристик положения используются началь-

ные и центральные моменты различных порядков.

Начальным моментом k-го порядка случайной величины X

называется математическое ожидание k-й степени этой вели-

чины, т. е.

αk = M[Xk]. (2.29)

Если рассматриваемая случайная величина дискретна, то

ее начальный момент k-го порядка находится по формуле

. (2.30)

Если случайная величина непрерывна, то

. (2.31)

Из приведенных формул (2.30) и (2.31) видно, что математи-

ческое ожидание — это начальный момент первого порядка, т. е.

α1 = M[X].

Введем понятие центрированной случайной величины, ко-

торую будем обозначать , т. е. центрированная слу-

чайная величина Х есть отклонение случайной величины Х от

ее математического ожидания. Математическое ожидание цен-

трированной случайной величины равно нулю, т. е.

Моменты центрированной случайной величины называют-

ся центральными моментами. Центральным моментом порядка

k случайной величины X называется математическое ожида-

ние k-й степени центрированной случайной величины , т. е.

. (2.32)

Если рассматриваемая случайная величина Х дискретна,

то для нахождения центрального момента k-го порядка исполь-

зуется формула

, (2.33)

а если непрерывна, то применяется формула

. (2.34)

Для любой случайной величины первый центральный мо-

мент равен нулю, т. е.

μ1 = M[X M[X]] = 0.

Начальные и центральные моменты можно выражать

друг через друга. Например, для второго центрального момен-

та имеем:

μ1 = α2 − (M[X])2 = M[X2] − (M[X])2. (2.35)

Особое значение имеет второй центральный момент μ2. Он

называется дисперсией случайной величины и обозначается

следующим образом

μ2 = D[X] = Dx.

Согласно формуле 2.32 дисперсия находится по формуле

D[X] = M[(X M[X])2]. (2.36)

То есть дисперсия — это математическое ожидание квад-

рата соответствующей центрированной величины. Дисперсия

характеризует разброс значений случайной величины относи-

тельно ее математического ожидания. Из формул (2.33) и (2.34)

следует, что для дискретной случайной величины она находит-

ся из выражения

, (2.37)

а для непрерывной случайной величины — из соотношения

. (2.38)

Часто для вычисления дисперсии используют формулу

(2.35).

Размерность дисперсии равна квадрату размерности слу-

чайной величины, а для характеристики рассеивания удобно

иметь параметр, который бы имел ту же размерность, что и

изучаемая величина. Поэтому из дисперсии извлекают ариф-

метический квадратный корень и получают еще одну числовую

характеристику, называемую средним квадратическим откло-

нением (стандартом), которую обозначаем σ[X] = σx.

Следовательно, имеем

. (2.39)

Зная M[X] и σ[X] изучаемой случайной величины X, мож-

но приблизительно судить о разбросе ее возможных значений.

Значения случайной величины X достаточно редко выходят за

пределы интервала

M[X] Ѓ} 3σ[X]. (2.40)

Выражение (2.40) называется “правило трех сигм” и сле-

дует из закона больших чисел. Часто в качестве характеристи-

ки степени случайности изучаемой случайной величины при-

меняют коэффициент вариации

. (2.40a)

Например, для рассмотренного нами примера 2.4 имеем:

= (1 − 3)2 × 0,2 + (2 − 3)2 × 0,1 +

+ (3 − 3)2 × 0,4 + (4 − 3)2 × 0,1 + (5 − 3)2 × 0,2 =

= 0,8 + 0,1 + 0 + 0,1 + 0,8 = 1,8;

;

.

Для более полного описания распределения используют

моменты высших порядков. Для характеристики асимметрии

(скошенности) распределения используют центральный мо-

мент третьего порядка. Заметим, что если распределение сим-

метрично относительно математического ожидания, то все цен-

тральные моменты нечетного порядка равны нулю, а так как

первый центральный момент всегда равен нулю, то и исполь-

зуют третий центральный момент. Его размерность равна кубу

размерности изучаемой случайной величины, поэтому, для того

чтобы получить безразмерный коэффициент μ3 делят на (σ[X])3

и получают коэффициент асимметрии или скошенности.

. (2.41)

Коэффициент Ax может быть как положительным, так и

отрицательным (рис. 2.14).

-20 0 20 40 60 80 100

Ax > 0

Ax < 0

f(x)

x

Рис. 2.14

Четвертый центральный момент применяется для харак-

теристики “островершинности” распределения. С его помощью

вычисляют так называемый коэффициент эксцесса

. (2.42)

Число 3 вычитается из отношения , так как для нор-

мального распределения, очень важного в теории вероятнос-

тей, отношение и, следовательно, для нормального рас-

пределения .

Если изучаемое распределение более островершинное, то

для него Ex > 0, а если плосковершинное, то Ex < 0 (рис. 2.15).

Ex > 0

Ex = 0

Ex < 0

f(x)

x

Рис. 2.15