Биномиальное распределение (биномиальный закон распределения) 


Мы поможем в написании ваших работ!



ЗНАЕТЕ ЛИ ВЫ?

Биномиальное распределение (биномиальный закон распределения)



Примеры законов распределения дискретных случайных величин

 

Рассмотрим некоторые важные для практики распределения дискретных случайных величин.

Биномиальное распределение (биномиальный закон распределения)

Говорят, что ДСВ имеет биномиальное распределение, если ее возможные значения: 0, 1, 2, …, m,….. n, а соответствующие им вероятности выражаются формулой:

P(m) =P{X=m} = Cmn pm qn-m, где m=0, 1, 2, ….. n, (3)

0<p<1, q= 1-p

или, что то же самое, рядом распределения, представленным в таблице 1.

 

Таблица 1

X=m 0 1 i n

 

Формула (3) – формула Бернулли, является аналитическим выражением биномиального закона распределения. Таким образом, биномиальным называют распределение вероятностей, определяемое формулой Бернулли.

Распределение зависит от двух параметров: n и p

На практике биномиальное распределение возникает при следующих условиях. Пусть производится n независимых опытов (независимые опыты – опыты, при которых вероятность какого-либо исхода каждого из них не зависит от того, какие исходы имели другие опыты), в каждом из которых событие А (условно его можно назвать «успехом» опыта) появляется с вероятностью р.

Следовательно, биномиальное распределение является ни чем иным, как распределением числа успехов Х в n испытаниях по схеме Бернулли с вероятностью успеха p и неудачи q = 1-p.

СВ Х – это число «успехов» при n опытах.

 

Распределение Пуассона

Говорят, что случайная величина Х имеет распределение Пуассона, если ее возможные значения: 0, 1, 2, …, m,… (бесконечное, но счетное множество значений), а соответствующие вероятности выражаются формулой:

(4)

m= 0, 1, 2, ….

Это распределение – предельное для биномиального распределения при n ®¥ и р ®0 и при условии, что nр=a=const. Закон Пуассона зависит от одного параметра а, смысл которого в следующем: он является одновременно МО и дисперсией СВ Х, распределенной по закону Пуассона.

Ряд распределения представлен в таблице 2

 

Таблица 2

X=m       m ¥
     

 

Имеются специальные таблицы, пользуясь которыми можно найти Pm, зная m и а.

При а =1 имеем ряд распределения, представленный в таблице 3

 

Таблица 3

X=m          
0.36788 0.36788 0.18394 0.06131 0.01533

 

Графическое изображение этого ряда распределения имеет вид, представленный на рисунке 10.

Рисунок 5.10

 

Распределение Пуассона играет большую роль в практическом применении теории вероятностей: многие физические явления приводят именно к такому распределению вероятностей.

Распределение Пуассона является распределением класса редких случайных событий (явлений), то есть таких событий, когда появление двух и более событий за малый промежуток времени практически невозможно.

Это распределение называют также законом редких событий, так как оно всегда проявляется там, где производится большое число испытаний, в каждом из которых с малой вероятностью происходит «редкое» событие. В соответствии с законом Пуассона распределены, например, число метеоритов, упавших в определенном районе; число распавшихся частиц при радиоактивном распаде вещества; число вызовов, поступивших в течение суток на телефонную станцию.

Пусть l– среднее число событий, которые появляются в единицу времени l

Какова вероятность того, что за время t произойдет ровно m событий, т.е.

 

P(m, lt)-?

 

Интервал времени t всегда можно разбить на такие одинаковые промежутки Dt, что в каждом из них будет происходить не более одного события. Тогда число интервалов

.

Вероятность того, что событие произойдет в одном из интервалов Dt, равна

- вероятность появления благоприятных событий

 

Откуда np= =a

 

При n , p 0, =const. Найдем искомую вероятность

 

.

Это вероятность того, что за время произойдет ровно m событий определенных формулой. Имеются специальные таблицы, по которым, зная m и , можно найти вероятность P(m, ). λ - называют интенсивностью.

 

Пример.

На входе ВС появляется задание на обслуживание с интенсивностью 120 зад/мин. Найти вероятность событий:

А={ за 1 сек. не приходит ни одного задания}

В = {за 1 сек. приходит хотя бы одно задание}

С = {за 1 сек. приходит ровно 1 задание}

 

λ = 120 зад/сек = = 2 зад/с

Р(А) -?

m = 0; τ = 1.

λτ = 2

Р(А) = Р (0, 2) = = 0,13534

Р(В) = 1 – P(A) - событие, противоположное событию А.

Р(В) = 1 – 0, 13534 = 0,86466

Р(С) = Р(1,2) = =0, 27067

 

 

Примеры равномерного распределения

1. Распределение ошибки квантования при представлении чисел

Равномерное распределение имеют и ошибки, возникающие от округления данных при расчетах (в частности, на ЭВМ).

Производится измерение какой-то величины с помощью прибора с грубыми делениями. В качестве приближенного значения измеряемой величины берется:

a) ближайшее целое;

b) ближайшее меньшее целое;

c) ближайшее большее целое.

Рассматривается СВ Х – ошибка измерения. Так как ни одно из значений СВ ничем не предпочтительнее других, естественно, что СВ Х распределена равномерно:

в случае а) – на участке (-1/2; +1/2);

в случае b) – на участке (0; 1)

в случае c) – на участке (-1; 0)

(в качестве 1 берется цена деления)

2. В современной вычислительной технике при моделировании случайных процессов часто используется СВ Х, имеющая равномерное распределение в пределах 0 до 1:

.

Эта величина, которую коротко называют «случайным числом от 0 до 1», служит исходным материалом, из которого путем соответствующих преобразований получаются СВ с любым заданным распределением.

Показательное распределение

Говорят, что НСВ Х имеет показательное (или экспоненциальное) распределение, если

Или, короче .

Положительная величина называется параметром показательного распределения. График показательного распределения имеет вид:

Рисунок 5.14

,

.

График функции распределения имеет вид:

Рисунок 5.15

 

Показательное распределение играет большую роль в теории марковских случайных процессов, теории массового обслуживания и теории надежности. Дискретным аналогом экспоненциального распределения является геометрическое распределение.

Экспоненциально распределенная СВ Х обладает важным свойством: отсутствием последействия. Отсутствие последействия является характеристическим свойством экспоненциально распределенных случайных величин. Экспоненциальное распределение тесно связано с распределением Пуассона, а именно: если времена между последовательными наступлениями некоторого события представляют собой независимые (определение независимости случайных величин будет дано позже) экспоненциально распределенные (с одним и тем же параметром ) случайные величины, то число наступлений этого события за время t распределено по закону Пуассона с параметром λ t.

Нормальное распределение

Нормальный закон распределения (закон Гаусса) играет исключительно важную роль в теории вероятностей и занимает среди других законов особое положение.

СВ Х распределена по нормальному закону с параметрами , если ее плотность распределения имеет вид:

.

Постоянная с определяется из условия нормировки f(x) (2-го свойства f(x)).

Найдем ?

.

- известный интеграл Эйлера-Пуассона.

Специальная функция, называемая функцией распределения Лапласа или «интегралом вероятностей», имеет вид:

.

Для нее составлены таблицы значений и известно, что

.

Следовательно, имеем

Тогда, и .

Смысл параметров будет установлен позже.

Найдем функцию распределения F(x) для нормального закона распределения.

.

Кривая нормального распределения имеет симметричный колоколообразный (холмообразный) вид. Она симметрична относительно прямой х=а и достигает максимума при х=а, имеет две точки перегиба при . При f(x) асимптотически приближается к оси Ох. При увеличении кривая становится более пологой.

Рисунок 5.16

- разброс СВ Х. Чем больше , тем больше разброс.

Найдем вероятность попадания СВ Х в интервал .

Интеграл не выражается через элементарные функции, но его можно выразить через интеграл Лапласа.

Замечание.

Следует обратить внимание на пределы функции

.

Иногда имеются таблицы значений не , а .

Функции и связаны между собой соотношением

С помощью функции вероятность попадания нормально распределенной СВ Х на участок от α до β можно найти по формуле:

. (10)

 

Свойства функции Ф(х):

1) Ф(0) = 0;

2) Ф(-х) = - Ф(х) - нечетная функция;

3) Ф(+∞) = 0,5 (при х 5 можно считать, что Ф(х) = 0,5);

4) Ф(-∞) = - 0,5

 

Свойства функции Ф*(х):

1) Ф*(0) = 0,5;

2) Ф*(-х) = 1 – Ф*(х) - нечетная функция;

3) Ф*(+∞) = 1;

4) Ф*(-∞) = 0.

 

Наиболее просто выражаются через функцию Лапласа вероятность попадания нормально распределенной СВ Х на участок длиной 2l, симметричный относительно центра рассеивания а.

Рисунок 5.18

 

. (11)

При использовании имеем:

. (12)

Через функцию Лапласа выражается и функция распределения F( x) нормально распределенной СВ Х.

По формуле (9), полагая и учитывая, что , получим:

. (12)

Нормальное распределение возникает тогда, когда величина Х образуется в результате суммирования большого числа независимых (или слабозависимых) случайных слагаемых, сравнимых по своему влиянию на рассеивание суммы. Нормальное распределение имеет важное значение для практики. Распределение многих важных практических СВ оказывается подчиненным нормальному закону (рассеивание снарядов при стрельбе в цель и т.д.). Далее увидим, что «универсальность» этого закона объясняется тем, что СВ, равная сумме большого числа независимых СВ оказывается распределенной почти по нормальному закону.

Кроме рассмотренных распределений непрерывных случайных величин существую и другие, важные для практики распределения:

- Распределение Вейбулла,

- Гамма-распределение,

- Распределение Эрланга,

- Распределение хи-квадрат.

Считают, что распределению Вейбулла подчиняются времена безотказной работы многих технических устройств. При определенных значениях одного из параметров этого распределения оно превращается в экспоненциальное распределение или в распределение Релея.

Гамма-распределение также достаточно хорошо описывает времена безотказной работы различных технических устройств. Распределение Вейбулла и гамма-распределение весьма близки между собой. Основным преимуществом закона Вейбулла перед гамма-распределением является то, что его функция распределения является элементарной функцией.

Распределение Эрланга находит важные применения в теории массового обслуживания.

Роль распределения хи-квадрат в математической статистике невозможно переоценить. Так, например, при проверке статистических гипотез о законе распределения используются критерии согласия. Существует несколько критериев согласия:

- Критерий Хи-квадрат (критерий Пирсона),

- Критерий Колмогорова,

- Критерий Смирнова,

- Др.

Критерий Пирсона широко применяется для проверки гипотезы о нормальном распределении генеральной совокупности, применяется также и для других распределений. В этом состоит его достоинство.

 

Биномиальное распределение.

Известно, что биномиальное распределение описывается формулой:

,

а математическое ожидание для дискретных случайных величин рассчитывается по формуле:

.

Тогда имеем

Следовательно, M[x]=np – с точностью до целого совпадает с модой (наивероятнейшим значением).

Аналогично можно рассчитать дисперсию:

Dx=npq.

 

Распределение Пуассона.

,

(m=0,1,2,….).

Найдем математическое ожидание.

= ae-a =a

 

Таким образом, M[x]=a

Найдем дисперсию. Для дискретных случайных величин:
,

.

(m-a)2=m2 - 2ma + a2 = (m2 – m) – (2ma - m) +a 2 = m(m – 1) – m (2a + 1) +a2

Тогда получаем:

Dx = =

= =

=

=

Таким образом, для закона Пуассона M[X]= D[X]= a = параметру закона.

 

 

Замечание.

Учитывая, что при быстрее, чем возрастает степень х.

 

Нормальное распределение

.

 

 

Найдем дисперсию нормального закона распределения.

.

.

Таким образом, дисперсия СВ Х, распределенной по нормальному закону с параметрами равна , а . Значит, параметр есть не что иное как С.К.О СВ Х.

Величина mx СВ Х, подчиненной нормальному закону распределения, называется ее центром рассеивания.

Размерности как МО так и С.К.О. совпадают с размерностью СВ Х.

Посмотрим, как будет меняться кривая распределения при изменении параметров .

При изменении а кривая f(x), не изменяя своей формы просто будет смещаться вдоль оси абсцисс.

Изменение s равносильно изменению масштаба кривой по обеим осям: например, при удвоении s масштаб по оси абсцисс удвоится, а по оси ординат – уменьшится в 2 раза.

Рисунок 6.4

 

 

Оценим для нормальной СВ Х вероятность попадания на участок от a до b, где a= а-кs и b= а+ks, т.е вероятность попадания в интервал а±ks симметричный относительно mx=a.

Выше были получены формулы:

- вероятность попадания нормально распределенной СВ Х на интервал от a до b;

или - это вероятность попадания СВ Х на участок длиной 2 l, симметричный относительно центра рассеивания а.

В данном случае .

Пусть k=1, тогда:

;

k=2,

;

k=3,

,

т.е. всего с вероятностью 0,0027 случайная величина, распределенная по нормальному закону, попадает за пределы интервала .

 

Рисунок 6.5

 

С большой точностью Х попадет внутрь этого интервала. Это правило называется правилом «трех σ» для нахождения интервала рассеивания.

Зная этот интервал возможного рассеивания случайной величины Х () вокруг mx=a, можно найти .

Для неотрицательной СВ Х в качестве характеристики ее «случайности» иногда применяется коэффициент вариации .

 

Доказательство

Постоянную С можно рассматривать как ДСВ, которая может принимать только одно значение С с вероятностью р =1, поэтому

 

Теорема 4.2. Математическое ожидание суммы случайных величин равно сумме их математических ожиданий.

Пусть X,Y – ДСВ или X,Y – НСВ.

M[X+Y]=M[X]+M[Y]

 

Доказательство

Рассмотрим случай, когда X и Y – ДСВ.

Пусть x1, x2,…,xn,… - возможные значения СВ Х, и

p1, p2,…,pn,… - их вероятности;

y1, y2,…,yk,… - возможные значения СВ Y и

q1, q2,…,qk,… - вероятности этих значений.

Обозначим через pnk вероятность того, что СВ Х примет значение xn, а СВ Y – значение yk.

Возможные значения величины X+Y имеют вид xn+yn (k,n=1,2,…)

 
 


По определению математического ожидания имеем:

;

Разделим эту сумму на составляющие:

.

Так как по теореме о полной вероятности

 

и ,


то
и ,


следовательно М[X+Y]=M[X]+M[Y].

 

Теорема 4.3. Математическое ожидание произведения независимых случайных величин X и Y равно произведению их математических ожиданий.

 

Доказательство

Если X и Y – дискретные случайные величины и

x1, x2,…,xn,… - возможные значения СВ Х,

p1, p2,…,pn,… - вероятности этих значений;

y1, y2,…,yk,… - возможные значения СВ Y и

q1, q2,…,qk,… - вероятности этих значений.


то вероятность того, что СВ Х примет значение хn, а Yyk равна pnk. По определению математическое ожидание:

 

Следствие.

Постоянный множитель можно выносить за знак математического ожидания:

 

Теорема 4.4.

Математическое ожидание линейной функции случайной величины есть линейная функция математических ожиданий компонентов:

.

 

Доказательство.


Теорема 4.5. Дисперсия детерминированной (неслучайной) величины равна нулю:

D[C]=0.

         
   

Доказательство

Или же , рассматриваем как ДСВ, которая принимает одно значение С с вероятностью 1.

 

 

Теорема 4.6.

Дисперсия суммы независимых случайных величин Х и Y равняется сумме дисперсий:

D[X+Y]=D[X]+D[Y].

 

Дисперсией СВ Х называется математическое ожидание квадрата ее отклонения от ее математического ожидания:

.


Доказательство

 

т.к. СВ Х и Y независимы, то независимы и величины (Х-М[X]) и (Y-M[Y]), следовательно:

 


т.к. имеем:

 

Следовательно, имеем .

 

Следствие 1.

Если Х1, Х2,…,Хn - случайные величины, каждая из которых независима от суммы предыдущих, то D[X1+X2+…+Xn]=D[X1]+D[X2]+…+D[Xn]

 

Следствие 2.

Дисперсия сумма конечного числа попарно независимых случайных величин Х1, Х2,…, Хn равна сумме их дисперсий:

 

Теорема 6.7. Постоянный множитель можно вынести за знак дисперсии, возведя его в квадрат.

, где С=const.

Доказательство

 

 
 

 

Следствие.

.

 

Теорема 6.8. Если Х и Y независимы, то

.

 

Доказательство

Основано на использовании соотношения

D[XY]=M[ (XY- M[XY])2] = M[ (XY - mxmy)2] = M[X2Y2]- 2M[XYmxmy]+M[mx2my2] = M[x2]M[Y2] – 2mxmY mxmY+ mx2mY2 = M[x2]M[Y2] - mx2mY2

Dx= M[x2] – mx2 -> M[x2] = Dx + mx2

 

Имеем

D[XY]= M[x2] M[Y2] - mx2mY2 = (Dx + mx2)(Dy + my2) - mx2mY2 =DxDy+Dxmy2+ Dymx2+ mx2 my2 - mx2 my2 = DxDy+Dxmy2+ Dymx2

 


Важную роль в приложении играет нормированная случайная величина.


Для нее и .

 

Моменты.

МО и дисперсия являются частным случаем моментов случайных величин. Различают начальные и центральные моменты.

Начальным моментом k-ого порядка случайной величины X называют МО величины (т.е. МО k-ой степени это величины):

Легко видеть, что характеристика положения - МО случайной величины – есть не что иное, как ее первый начальный момент, т.е.

Перед тем, как дать определение центральных моментов, введем новое понятие «центрированной случайной величины».

Центрированной случайной величиной называют отклонение случайной величины от ее МО.

Нетрудно убедиться, что МО центрированной случайной величины равно 0.

Аналогично и для НСВ.

Центрирование случайной величины равносильно переносу начала отсчета в точку (центр распределения).

Моменты интегрированной случайной величины называют центральными.

Центральным моментом k-ого порядка случайной величины X называют МО k-ой степени центрирования случайной величины

Очевидно, что для любой случайной величины Х центральный момент 1-ого порядка равен нулю.

; , т.к. = =1

Второй центральный момент:

Между центральными и начальными моментами существует связь: одни выражаются через другие. Выведем соответствующие формулы для ДСВ (для НСВ аналогичен при замене на на f(x)) dx, сумм на интегралы).

Второй центральный момент:

=

, т.к.

Таким образом, дисперсию можно рассчитывать как

т.е. дисперсия случайной величины равно МО ее квадрата минус квадрат математического ожидания.

Найдем третий центральный момент:

пользуясь формулой для куба разности

= ,

т.к. , то

Точно таким же способом можно получить выражения для и т.д.

Итак, центральные моменты выражаются через начальные формулы:

и т.д.

МО, дисперсия – чаще всего применяемые числовые характеристики случайных величин. Они характеризуют, как видели ранее, самые важные черты распределения: его положение и степень разбросанности.

Для более подробного описания распределения служат моменты высших порядков. Третий центральный момент служит для характеристики асимметрии («скошенности») распределения. Если распределение симметрично относительно МО, то все центральные моменты нечетного порядка (если они существуют) равны нулю.

Действительно, при симметричном распределении и нечетной k в сумме

каждому положительному слагаемому соответствует равное ему по абсолютной величине отрицательное слагаемое, так что они взаимно уничтожаются и сумма равна нулю (то же справедливо и относительно интеграла, выражающего для нечетного k, который равен нулю как интеграл в симметричных пределах от нечетной функции).

Естественно поэтому в качестве характеристики асимметрии распределения выбрать какой-либо из нечетных моментов – проще всего . Он имеет размерность куба случайной величины. Чтобы получить безразмерную характеристику, делят ее на куб с.к.о. (среднеквадратичное отклонение). Полученная величина называется коэффициентом асимметрии (или просто асимметрия):

или

Для симметричной случайной величины S=0, =0

Четвертый центральный момент служит для характеристики так называемой «крутости», т.е. островершинности распределения (применяется в основном к НСВ). Это свойство характеризуется с помощью эксцесса:

Число 3 вычитается из отношения потому что для часто встречающегося нормального распределения . Для нормального распределения Кривые, более островершинные, чем нормальная, обладают положительным эксцессом, а более плосковершинные – отрицательным. Характеристикой пользуются главным образом для симметричных распределений.

Пример.

Найти коэффициент симметрии и эксцесс случайной величины, распределенной по закону Лапласса с .

Решение.

Т.к. распределение случайной величины симметрично относительно оси ординат, то все нечетные как начальные, так и центральные моменты равны нулю, т.е. и, следовательно, коэффициент симметрии = 0.

Для нахождения эксцесса необходимо вычислить четные начальные моменты

2* ½

Следовательно, =



Поделиться:


Последнее изменение этой страницы: 2017-02-07; просмотров: 891; Нарушение авторского права страницы; Мы поможем в написании вашей работы!

infopedia.su Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав. Обратная связь - 18.223.125.219 (0.285 с.)