Формула полной вероятности. 4 страница

 

 


Эта вероятность равна обьему элементарного параллепипеда, ограниченного

Сверху поверхностью f(x,y) и опирающегося на элементарный прямоугольник

dx dy.

 

Пользуясь понятием элемента вероятности, выведем выражение для вероятности попадания случайной точки в произвольную область Д. Эта вероятность, очевидно, может быть получена суммированием (итегрированием)

 
 

Элементов вероятности по всей области Д:

 

 

Геометрически вероятность попадания в область Д изображается обьемом цилиндрического тела С , ограниченного сверху поверхностью распределения

Опирающегося на областьД

 

 

Из общей формулы вытекает формула для вероятности попадания в прямоугольник R, ограниченной абсциссами a и b и ординатами g и d

 


 

Воспользуемся этой формулой для того, чтобы выразить функцию распределения системы F(x,y) через плотность распределения f(x,y) . Функция

 
 

Распределения F(x,y) есть вероятность попадания в бесконечный квадрат, ограниченный абсциссами -¥ и x и ординатами -¥ и y.

 
 

жщгрзш

СВОЙСТВА ПЛОТНОСТИ РАСПРЕДЕЛЕНИЯ СИСТЕМЫ ДВУХ СЛУЧАЙНЫХ ВЕЛИЧИН.

Плотность распределения системы есть функция неотрицательная

F(x,y) ³ 0

Это ясно из того, что плотность распределения есть предел отношения двух

Неотрицательных величин: вероятности попадания в прямоугольник и площадь

Прямоугольника-U,следовательно, отрицательной быть не может.

Двойной интеграл в бесконечных пределах от плотности распределения

 
 

Системы равен единице:

Это видно из того, что этот интеграл не что иное, как вероятность попадания

во всю плоскость xoy,т.е. вероятность достоверного события.

Геометрически это свойство означает, что полный обьем тела, ограниченою

Поверхностью распределения и плоскостью xoy, равен единице.

ЗАКОНЫ РАСПРЕДЕЛЕНИЯ ОТДЕЛЬНЫХ ВЕЛИЧИН, ВХОДЯЩИХ

В СИСТЕМУ . УСЛОВНЫЕ ЗАКОНЫ РАСПРЕДЕЛЕНИЯ.

Зная закон распределения системы двух случайных величин, можно всегда определить законы распределения отдельных величин, входящих в систему.

Мы уже вывели выражения для функций распределения отдельных величин

Входящих в систему, через функцию распределения системы:

F1(x)= F (x,¥)

F2(y)= F (¥,y)

Выразим теперь плотность распределения каждой из велечин, входящих в систему, через плотность распределения системы. Пользуясь формулой, выражающей функцию распределения через плотность распределения, напишем

 
 

Откуда дифференцируя по x, получим выражение для плотности распределения величины x

 
 

 

 

Недостаточно знать распределение отдельных величин , входящих в систему, нужно еще знать зависимость между величнами , входящими в систему . эта зависимость может быть охарактеризована с помощью так называемых условных законов распределения .

Условным законом распределения величины х, входящей в систему (х,у), называется ее закон распределения , вычисленный при условии ,что другая случайная величина 4 приняла определеное значение у.

Условная функция распределения обозначаеться f(x/y), условная плотность распределения f(x/y). Так как системы непрерывных величин имеют основное практическое значение ,мы в данном курсе ограничемся расмотрением условных законов ,заданных плотностью распределения .

Чтобы нагляднее пояснить понятие условного закона распределения , расмотрим пример . система случайных величин н и q представляет собой рост человека безотносительно к его весу , что есть случайная величина , мидчненная закону распределения с плотностью f,(h). Этот закон распределения мы можем иследовать , расматривая простую статистическую совокупность людей , оценивая их только по росту : f’,(h) есть безусловный закон распределения роста людей . однако нас может интересовать и закон распределения роста человека вполне определенного веса , например 80кг . для того , чтобы его определить , мы будем иследовать не всех людей , а только тех , которые имеют все от 79,5 до 80,5 кг ,т.е. будем иследовать определенную весовую группу людей при весе человека 80кг , с плотностью f(h/g) при g=80. Этот условный закон распределения вообще отличается от безусловного f,(h),очевидно ,более тяжелые люди должны вм среднем обладать и большым ростом ,следовательно , условный закон распределения роста людей существенно зависит от веса .g.

Зная закон распределения одной из величин , входящих в систему , и условный закон распределения второй , можно составить закон распределяется системы .выведем формулу , выражающую что соотношение ,для непрерывных случайных величин . для этого воспользуемся понятием об элементе вероятности.

Рассмотрим прилежащий к точке (x,y) элементарный прямоугольник rd со сторонами dx и dy. Вероятность показания в этот прямоугольник –элемент вероятности одновременного показания случайной точки (xy) в элементарную полосу 1,отражающую на отрезок dx.

F(xy) dx dy =p((xy)ÌRd)=р((x<X<x+dx)(y<Y<dy))

Вероятность произведения этих двух событий , по теореме умножения вероятностей , равна вероятности показания в элементарную полосу 1, умноженой на условную вероятность показания в элементарную полосу 2 , вычесленую при условии , что первое событие имело место . Это условие в пределе равносильно условию X=x; следовательно f(x,y) dx dy =f,(х) dx ×f (y/x) dy, откуда

f(x,y)=f,(x)×f(у\x),

т.е. плотность распределения системы двух величин равна плотности распределения одной из величин , входящих в систему ,умноженную на условную плотность распределения другой величины , вычесленную при условии , что первая величина приняла заданное значение .

Очевидно , этой формуле можно придать другой вид , если задать значение не величины X,а величины Y:

F(x,y)=f2(y) × f(x/y).

Разрешая формулы относительно f(y/x)и f(x/y), получим выражение деловых законов распределения через безусловные :


       
   
 

Или

 


Зависимые и независимые случайные величины

 

 

При изучении систем случайных величин всегда следует обращать внимание на степень и характер их зависимости. Эта зависимость может быть более или менее ярко выраженной, более или менее тесной. В некоторых случаях зависимость между случайными величинами можно в точности указать значение. В другом крайнем случае зависимость между случайными величинами является настолько слабой и отдалённой, что их можно практически считать независимыми.

Понятие о независимых случайных величинах – одно из важных понятий теории вероятности.

Случайная величина У называется независимой от случайной величины Х, если закон распределения величины У не зависит от того, какое значение приняла величина Х.

Для непрерывных случайных величин условие независимости У от Х может быть записано в виде:

f (y/x)=f2 (y)

при любом У.

Напротив, в случае, если У зависит от Х, то

F (y/x)= f2 (y).

Зависимость или независимость случайных величин всегда взаимны: если величина У не зависит от Х, то и величина Х не зависит от У, то есть если

F (y/x)=f2 (y), то и

F (x/y)= F1 (x).

Так как зависимость и независимость случайных величин всегда взаимны, можно дать новое определение независемых величин.
Случайные величины х и у называется независемыми, если закон распределения каждой из них не зависет от того какое значение принила
другая. В противном случае величины х и у называется зависимыми.

Для независемых репрерывных случайных величин теорема умножения законов

распределения принимает вид:

 

 

F(x,y) =f1(x) f2(y)

Т.е плотность распределения системы независиьых случайных величин,равна произведению плотностей распределения отдельных величин,входящих в систему.

Эта формула может рассматривается как необходимое и недостаточное условие независимости случайных величин.

Часто по самому виду функций f(x,y) можно заключить, что случаные величины х,у являются независемыми, а именно, если плотность распределения f(x,y) расподается на произведение двух функцый, из которых одна зависит только от х, другая-только от у, то случайные величины независемы.

Пример.

Плотность распределения системы (х,у) имеет вид:

 

 


Определить зависимы или независимы случайные величины Х и У.

Решение.

Разлагая знаменатель на множители, имеем

 

 

Из того, что функция f(x,y) распалась на произведение двух функций, из которых одна зависит только от х, а другая – только от у, заключаем,что величины х и у независимы.

Вышеизложеный критерий суждения о зависимости или независимости случайных величин исходит из предположения, что закон распределения системы нам известен. На практике чаще бывает наоборот: закон распределения системы ( х,у) не известе, известны только законы распределения отдельных величин, входящих в систему, и имеется основания считать, что величины х и у независимы. Тогда можно написать плотность распределения системы как произведение плотностей отдельных величин, входящих в систему.

Остановимся подробнее на важных понятиях о « зависимости и независимости» случайных величин.

Понятие зависимости случайных величин, которым мы пользуемся в теории вероятности отличается от обычного понятия зависимости величин, которым мы оперируем в математике.

 

Действительно, обычно под зависимостью величин имеем только один тон зависимости – полную, жесткую, функциональную зависимость.

Две величины х и у называются функционально зависимыми, зная значения одной из них, можно точно указать значение другой.

В теории вероятности мы встречаемся с более общим типом зависимости – с вероятной или « схолостической зависимостью». Если величина у связана с величиной х вероятностной зависимостью, то зная значение х, нельзя точно указать значение у, а можно указать закон распределения, зависящий от того, какое значение приняла величина х.

Вероятностная зависимость может быть более или менее тесной; по мере …….


::Увеличения тесноты вероятностной зависимости она все более приближаеться к функциональной . Таким образом, функциональную зависимость можно рассматривать как крайний , предельный случай наиболее тесной вероятностной зависимости. Между этими двумя крайними случаями лежат все градации вероятностной зависимости от самой сильной до самой слабой.Те физические величины , которые мы считаем функционально зависимыми,в действительности связаные весьма тесной вероятностной зависимости : при заданном значении одной

из этих величин другая колеблется в столь узких пределах, что ее практически можно считать вполне определенной. С другой стороны, те величины , которые мы

н а практике считаем независимыми , и действительно часто находятся в некоторой

взаимной зависимости , но эта зависимость настолько слаба , что ее для практических целей можно пренебречь .

Вероятностная зависимость очень часто встречается на практике. Если случайные

Величины X и Y находятся в вероятностной зависимости, что не означает, что с изменением величины X величина Y изменяется вполне определенным образом ; что лишь означает, что с изменением величины X величина Y имеет тенденцию изменяться ( например возрастать или убывать при возрастании X ). Эта тенденция

соблюдается лишь «в среднем», в общих чертах, и в каждом отдельном случае

от нее возможно отступление.

Рассмотрим, например, 2 такие случайные величины: X – рост наугад взятого человека, Y – его вес. Очевидно , величины X и Y находятся в определенной вероятностной зависимости ; она выражается в том , что в общем люди с большим ростом имеют большой вес. Можно даже составить эмпирическую формулу , приближенно заменяющую эту вероятностную зависимость функциональной. Такова, например, общеизвестная формула , приближенно выражающая зависимость между ростом и весом:

Y(кг)=X(см) – 100

Формулы подобного типа , очевидно , не являются точными и выражают лишь некоторую среднюю , массовую закономерность, тенденцию , от которой в каждом

отдельном случае возможны отступления.

Приведем еще несколько примеров случайных величин , находящихся в различных степенях зависимости .

t C=f (D)

температура воздуха и порядковый день года

Число родившихся детей и уровень благосостояния народа

Из камней , состовляющих кучу щебня, выбирается наугад 1 камень . Случайная

величина Q- вес камня; случайная величина L – наибольшая длина камня . Величины Q и L находятся в явно выраженной вероятностной зависимости.

 

ЧИСЛОВЫЕ ХАРАКТЕРИСТИКИ СИСТЕМЫ ДВУХ СЛУЧАЙНЫХ ВЕЛИЧИН

 

Ранее мы ввели в рассмотрение числовые характеристики 1 случайной величины

X – начальные и центральные моменты различных порядков . Из этих характеристик важнейшими являются 2 :

Первый начальный момент – математическое ожидание мx

Второй центральный момент – дисперсия D x.

Начальным моментом порядка k,s системы ( X,Y ) называется математическое ожидание произведения Xk на Ys :

Lk,s =M( Xk Ys )

Центральным моментом порядка k,s системы (X,Y) называется математическое

Ожидание произведения k-й и s-й степени соответствующих центрированных величин:

m ks=M(Xok Yos )

где xo=x-mx

yo=y-my

Вычислим формулы, служащие для непосредственного подсчета моментов . Для прерывных случайных величин :



Где PIJ = P((X = XI)(Y = YJ)) – вероятность того, что система (X,Y) примет значения

(XI,YJ), а суммирование распространяются по всем возможным значениям случайных величин X,Y.

Для непрерывных случайных величин:



 

 


 

 

момент характеризует не только зависимость величин , но и их рассеяния.

 
 

Действительно, если, например, одна из величин (Х,У) весьма мало отклоняется от своего математического ожидания (почти не случайна), то корреляционный момент будет мал, какой бы тесной зависимостью ни были связаны величины(Х,У). Поэтому для характеристики связи между величинами (Х, У) в чистом виде переходят от корреляционного момента Кху к безразмерной характеристике:

где sх,sу- средние квадратические отклонения величин Х и У.

Эта характеристика называется коэффициентом корреляции величин Х и У.

Очевидно,коэффициент корреляции обращается в нуль одновременно с корреляционным моментом; следовательно,для независимых случайных величин коэффициент корреляции равен нулю.

Случайные величины, для которых корреляционный момент (а значит, и коэффициент корреляции) равен нулю, называется некоррелированными.

Выясним, эквивалентно ли понятие некоррелированности случайных величин понятию независимости. Выше мы доказали, что две независимые случайные величины всегда являются некоррелированными. Остается выяснить: справедливо ли обратное положение, вытекает ли из некоррелированости величин их независимость? Оказывается – нет. Можно построить примеры таких случайных величин, которые , нулю коэффициента корреляции- необходимое, но не достаточное условие независимости случайных величин. Из независимости случайных величин вытекает их некоррелированность; напротив из некоррелированности величин еще не следует их независимость.Условие независимости случайных величин- более жесткое, чем условие некоррелированности.

Убедимся в этом на примере.Рассмотрим систему случайных величин (Х,У), распределенную с равномерной плотностью внутри круга с радиусом r с центром в начале координат.

 

                       
   
Y
 
   
 
   
С2
 
 
 
   
С3
 
С4
       
X
 

 

 


Плотность распределения величин (Х,У) выражается формулой:

С при Х2+У2<r2

F(Х,У)=

при Х2+У2>r2

 

Нетрудно убедиться, что в данном примере величины являются зависимыми. Действительно, непосредственно ясно,что если величина Х приняла ,например, значение 0, то величина У может с равной

 

вероятностью принимать все значения от -r до +r , если же величина Х приняла значение r ,то величина У может принять одно единственное значение, в точности равное нулю; вообще, диапазон возможных значений У зависит от того, какое значение приняла Х.


Посмотрим, являются ли эти величины коррелированными. Вычислим корреляционный момент. Имея в виду, что по соображениям геометрии mx=my=0 получим, что корреляционный момент равен:

 

 

Для вычисления интеграла разобьем область интегрирования (круг С) на четыре сектора С1, С2, С3, С4, соответствующие четырем координатным углам. В секторах С1 и С3 подъинтегральная функция положительна, в секторах С2 и С4 – отрицательна; по абсолютной же величине интегралы по этим секторам равны: следовательно, интеграл равен нулю; равен нулю корреляционный момент, а, следовательно, и коэффициент корреляции равен нулю.

Таким образом, мы видим, что из равенства нулю коэффициента корреляции не всегда следует независимость двух случайных величин.

Коэффициент корреляции характеризует не всякую зависимость, а только так называемую линейную зависимость. Линейная вероятностная зависимость случайных величин заключается в том, что при возрастании одной случайной величины другая имеет тенденцию возрастать( или же убывать) по линейному закону.Эта тенденция к линейной зависимости может быть более или менее ярко выраженной, более или менее приближаться к функциональной, т.е. самой тесной линейной зависимости.Коэффициент корреляции характеризует степень тесноты линейной зависимости между случайными величинами.Если случайные величины Х и У связаны точной линейной функциональной зависимостью:

 

У=ах+в,

То r=±1, причем знак + или – берется в зависимости от того,

Положителен или отрицателен коэффициент а.

ç Характеристик.

Минимальное число характеристик, с помощью которых может быть охарактеризована система и случайных величин Х1, Х2, …, Хn сводится к следующему:

и математических ожиданий

m1, m2, …, mn

и дисперсий

D1, D2, …, Dn

характеризующих их рассеяние

и (n-1) корреляционных моментов

Ki j = M(Хi Хj ) (i ¹ j)

где

Хi = Хi – mi

ХJ = Хj- mj

характеризующих попарную корреляцию всех величин, входящих в систему.

Заметим, что дисперсия каждой из случайных величин Хi есть, по существу, не что иное, как частный случай корреляционного момента, а именно корреляционный момент величины Хi и той же величины Хi

Di = Хi i = M(Хi Хi) = M(Хi2)

Все корреляционные моменты и дисперсии удобно расположить в виде матрицы

K11 K12 … K1n

K21 K22 … K2n

………………

Kn1 Kn2 Knn

Такая матрица называется корреляционной матрицей.

Очевидно, что не все члены корреляционной матрицы различны. Из определения корреляционного момента ясно, что Kij = KJ i, т. е. Элементы корреляционной матрицы, расположенной симметрично по отношению к главной диагонали, равны. В связи с этим часто заполняется не вся корреляционная матрица а лишь ее половина, считая от главной диагонали:

Х11 Х12 … Х1n

Х22 … Х2n

………

Хnn

Корреляционную матрицу, составленную из элементов Х ij часто сокращенно обозначают символом çХ ij ç.

По главной диагонали корреляционной матрицы стоят дисперсии случайных величин Х1,Х2,…, Хn.

В случае , когда случайные величины Х1, Х2,…, Хn не коррелированы , все элементы корреляционной матрицы , кроме диагональных равны нулю.

D1 0 0 … 0

D2 0 … 0

çK ijç= D3 …0

…….

Dn

 

Такая матрица называется диагональной.

 
 

В целях наглядности суждения именно о коррелированности случайных величин безотносительно к их рассеянию часто вместо корреляционной матрицы çK i j çпользуется нормированной корреляционной матрицей çr i jç, составленной не из корреляционных моментов, а из коэффициентов корреляции:

 

Где

 
 

Все диагональные элементы этой матрицы, естественно равны единице. Нормированная корреляционная матрица имеет вид:

1 r12 r13 … r1n

1 r23 … r2n

çrij ç= 1 … r3n

………

 

Введем понятие о некоррелированных системах случайных величин ( иначе о некоррелированных случайных векторах ).

Рассмотрим две системы случайных величин:

Х1, Х2, … Хn

Y1, Y2, … Yn

Или два случайных вектора в n-мерном пространстве:

Х= {Х1, Х2, … Хn }

Y={Y1, Y2, … Yn}

Случайные векторы Х и Y называются некоррелированными, если каждая из составляющих вектора Х не коррелирована с каждой из составляющих вектора Y:

Хij = M(Хi Yi) = 0 при i = 1,2,…, n

J =1,2,…, n.

Уравнение регрессии .

Изучение связи между случайными величинами представляет одну из основных задач математической статистики . Наиболее простым и важным случаем такой связи является корреляционная зависимость между случайными величинами , выражаемая уравнениями регрессии (корреляционными уравнениями.)

Пусть имеется система случайных величин :

 
 

 


Где Х-вектор случайных величин,

Y-случайный скаляр.

При функциональной зависимости Y от Х мы имеем :

Y= f(х).

В этом случае каждому значению вектора Х ставится вполне определенное значение скаляра Y.

При стохастической (статистической) зави

 

Распределение аргументов (х1, Х2, …, Хn). Более того, в некоторых случаях, для того что бы найти числовые характеристики функции,не требуется даже знать закона распределения ее аргументов; достаточно бывает знать лишь некоторые числовые характеристики аргументов.

Таким образом, возникает задача определения числовых характеристик функций случайных величин помимо законов распределения этих функций

Рассмотрим задачу об определении числовых характеристик функций случайных величин помимо законов распределения этих функций.

Рассмотрим задачу об определении числовых характеристик при заданном законе распределения аргументов. Начнем с самого простого случая – функции одного аргумента- и поставим следующую задачу .

Имеется случайная величина Х с заданным законом распределения; другая случайная величина У связана с Х функциональной зависимостью;

У=j (Х)

Требуется ,не находя закона распределения У, определить ее математическое ожидание


Му=М[y (x) ]

Рассмотрим сначала случай , когда Х есть прерывная случайная величина с

Хi X1 X2 ……………… Xn
Pi P1 P2 ……………… Pn  

рядом распределения;

Вычислим возможные значения величины У и вероятности этих значений

Y(xi) Y(x1) Y(x2) ……………… Y(xn)
Pi P1 P2 ……………… Pn  

Последняя таблица не является в строгом смыслеслова рядом распределения величины У, так как в общем случае некоторые из значений

Y(x1), Y(x2), .., Y(Xn)

Могут совпадать между собой; к тому же эти значения в верхнем столбце таблицы не обязательно идут в вырастающем порядке. Для того,