I. Элементы теории вероятности 


Мы поможем в написании ваших работ!



ЗНАЕТЕ ЛИ ВЫ?

I. Элементы теории вероятности



I. ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТИ

 

ТЕОРИЯ ВЕРОЯТНОСТИ базируется на понятии ОПЫТА (ЭКСПЕРИМЕНТА) или НАБЛЮДЕНИЯ.

Определение 1. ОПЫТОМ (ЭКСПЕРИМЕНТОМ) называют контролируемое осуществление некоторого комплекса условий S, которое можно повторить неограниченное число раз.

Комментарий. Практически речь идёт об очень большом числе мало отличающихся (в определённом смысле) между собой условий.

Определение 2. При НАБЛЮДЕНИИ мы полагаем,чтокомплекс условий S воспроизводится самой природой.

Определение 3. СОБЫТИЕМ называют назначенный заранее результат опыта.

Комментарий. События бывают: достоверные (всегда происходят при создании комплекса условий S), невозможные (никогда не происходят при создании комплекса условий S) и случайные.

 

Примеры. 1. Мы бросаем монету; заранее нельзя предсказaть, как она упадет: гербом или решкой. 2. вынимаем наугад карту из колоды. Заранее нельзя сказать, какой она будет масти.

Комментарий. Все эти примеры относятся к области случайных явлений. B каждом из них исход опыта заранее непредсказуем. Если такие опыты c неопределенным исходом повторять раз за разом, то от раза к разу результат бyдет меняться. Например, взвешивая несколько раз подряд одно и то же тело на точных весах, мы будем получать, вообще говоря, различные значения веса. B чем причина этих различии?

Во первых, в том, что условия опыта, которые нам представляются одинаковыми, собственно говоря, различны: на исход каждого из них влияет множество малых, трудно уловимых факторов, обусловливающих в своей совокyпности неопределенность исхода.

Во вторых, мы можем просто не знать всех элементов комплекса условий, достаточных для получения детерминированного результата. Например, если мы измеряем температуру кипения воды в разных точках земли, но не догадываемся о том, что она зависит от атмосферного давления, а, следовательно, от высоты подъёма над уровнем моря. «Случайность есть вообще лишь нечто такое, что имеет основание своего бытия нe в самом себе, а в другом» (Г. В. Ф. Гегель. Энциклопедия философских наук. Т. 1. Наука логики. § 145).

Определение 4. Всякий результат эксперимента со случайным исходом в теории вероятностей называют случайным событием. Случайные события обозначают заглавными буквами латинского алфавита: A, B, C и т. д.

ЭЛЕМЕНТЫ КОМБИНАТОРИКИ

 

Комбинаторикой (от латинского combinare - соединять) называют раздел математики, в котором изучаются задачи на подсчёт количества комбинаций, удовлетворяющих тем или иным условиям, которые можно составлять из элементов данного множества. В этом смысле комбинаторика - это часть теории множеств. Комбинаторные методы находят широкое применение внутри самой математики. Это и дискретная математика и линейное программирование и теория вероятностей и математическая статистика и алгебра и геометрия и теория управления и теория информации, в частности, проблема создания надежных шифров и, наоборот, создание эффективных методов декодирования. Они также эффективны и в приложениях математики в технике и естествознании (разработка сетей компьютеров, составление расписаний, контроль качества продукции и так далее.).

 

1. ПРИНЦИПЫ КОМБИНАТОРИКИ. B основе решения комбинаторных задач лежат два принципа: - принцип суммы и принцип произведения.

1.1. Принцип суммы. Если существует m способов выбрать элемент a и (независимо от них) n способов выбрать элемент b, то выбор a или b можно сделать m + n способами. Например, если в группе 7 мальчиков и 9 девочек, то выбор “мальчик или девочка” можно сделать 16 способами - выбрать либо одного из 7 мальчиков, либо одну из 9 девочек.

1.2. Принцип произведения. Если элемент можно выбрать способами, а после него и независимо от него элемент а2 - n2 способами, элемент ak - nk сnособами, то набор (а1,.., ak) можно выбратъ сnособами. Например, если в нашем распоряжении m способов выбрать элемент a и n способов выбрать элемент b, то пару (а, b) можно выбрать mn способами. Таким образом, пару “мальчик и девочка” можно выбрать способами. Ещё пример: Сколькими способами можно поставить на шахматную доску белyю и чёрную ладью так, чтобы они не били друг друга? Поле для белой ладьи можно выбрать 64 способами. Независимо от этого выбора, ладья бьёт 15 полей, поэтомy для черной ладьи остается 64 - 15= 49 пoлей. В более сложном случае надо сначала выбрать элемент а, а потом, в зависимости от этого выбора, элемент b. Но если элемент а можно выбрать m способами, а после каждого такого выбора элемент b можно выбрать n способами, то число различных пар (а,b) опять равно mn. С помощью правил суммы и произведения можно решать любые задачи комбинаторики. Но это не удобно, это всё равно, что сводить решение любой геометрической задачи к аксиомам. Поэтому в комбинаторике есть несколько простейших, стандартных задач, к которым часто удается свести решение других задач.

Геометрическая вероятность

Формула классической вероятности применяется только в схеме случаев, что встречается довольно редко. Отношение Р(А)= NA/N представляет собой «долю» благоприятных исходов среди всех возможных исходов. Аналогичным образом подсчитывают вероятность события в некоторых более сложных случаях, когда имеется бесконечное число равновозможных исходов.

Пример. Задача о встрече. Два студента договорились встретиться от 10 до 11 часов на определенном месте, причем первый студент, пришедший на место, ждет товарища 15 минут и уходит. Какова вероятность встречи? Выберем начало системы координат в точке (10, 10). Отложим по осям системы координат x - время прихода первого студента, y – время прихода второго студента. Тогда множество |x-y|<1/4, 0<x<1, 0<x<1, 0<y<1 содержит точки (события) встречи студентов. Его мера (площадь) mesA равна 1- (3/4)2 = 7/16. Так как mesW =1, то P(A) = 7/16.

 

Принцип сложения.

Напомним, что два события называются несовместными, если они одновременно произойти не могут, то есть, если АВ=Ø и совместными в противном случае. Следующие четыре утверждения и образуют принцип сложения.

Теорема 1. Для любого события имеет место следующее равенство: .

. Действительно, так как , то .

Теорема 2. Если , то Р(А-В)=Р(А)–Р(В).

Имеем очевидное равенство А=В+(А-В), где В и А-В являются несовместными событиями. Используя аксиому 3 вероятности, имеем Р(А-В)=Р(А)–Р(В).

Теорема 3. (теорема сложения вероятностей). Пусть мы имеем два совместных события А и В. Тогда

Преобразуем их сумму в сумму несовместных событий

Подставляя второе выражение в первое, получим

.

Пример. По мишени один раз стреляют два стрелка. Вероятность попадания первого стрелка в мишень р1 = 0,7, второго – р2 = 0,8. Какова вероятность того, что кто-нибудь из них попадет в мишень?

А = А 1 + А 2, А попадание в мишень; А1 – попал первый стрелок; А2 – попал второй стрелок.

Р(А) =Р(А1 + А2)=Р(А1)+ Р(А2) –Р(А1А2)= Р(А1)+Р(А2) – Р(А1 )Р(А2)= 0.7+ 0,8 – 0,7· 0,8 = 0,94.

Получим вероятность суммы трех совместных событий.

Получена формула

Р(А + В + С) = Р(А) + Р(В) + Р(С) – Р(АВ) – Р(АС) – Р(ВС) + Р(АВС)

Обобщая полученный результат на сумму n совместных событий, получим формулу

Теорема 4. Для произвольных случайных событий А1, А2, …, Аn F имеет место равенство

.

. Учитывая, что события и являются взаимно противоположными, из теоремы 1 сразу получаем искомое равенство.

 

Принцип умножения.

Определение 1. Вероятность события А при условии, что событие В наступило, называется условной и обозначается Р(А/В). Если никаких дополнительных условий не накладывается, то вероятность называется безусловной. Это – обычная, определенная выше вероятность.

Пример. Пусть в аудитории присутствует N студентов. Среди них NA – число студентов, регулярно прогуливающих математику, NB – прогуливающих всё остальное, NАВ – прогуливающих и математику, и всё остальное. Выбираем одного студента. Введем следующие события:

Пустьсобытие А – случайно выбранный студент, прогуливающий математику, событие В – прогуливающий всё остальное, событие АВ – прогуливающий и математику, и всё остальное. На диаграммах Венна это выглядит так.

 

Тогда вероятности этих событий равны: Это безусловные вероятности.

Предположим теперь, что мы захотели узнать вероятность того, что случайно выбранный прогульщик всего остального, прогуливает еще и математику. В этом случае количество всех возможных исходов NB (выбираем только прогульщиков всего), а количество благоприятных исходов – NАВ . Получим

= =

В общем случае имеет место

Определение 2. Условная вероятность события А при условии, что событие В произошло, определяется с помощью следующего равенства:

, Р(В)>0. Аналогично определяется условная вероятность события В при условии, что событие А произошло: , Р(А)>0

Следующее утверждение называют принципом умножения .

Теорема 1. Для любых случайных событий А,ВÎF имеет место следующее равенство:

Р(АВ)=Р(B)Р(А/В) или Р(АВ)=Р(А)Р(В/А).

В случае независимых случайных событий Р(А/В)=Р(А) и Р(В/А)=Р(В); поэтому теорему умножения для независимых случайных событий можно переписать в виде Р(АВ)=Р(А)Р(В). Это равенство используют в качестве определения независимых случайных событий. Теорема умножения вероятностей может быть обобщена на случай произвольного числа событий.

.

Событие А будем называть независимым от события В, если P(A/B) = P(A), т.е. если условная вероятность равна безусловной.

Определение 3. Два события называются независимыми, если наступление одного из них не изменяет вероятность другого. В противном случае события называются зависимыми.

Определение 4. События А1, А2,…, Аn называются независимыми в совокупности, если вероятность их произведения равна произведению их вероятностей

.

Пример. Два стрелка, независимо друг от друга стреляют по одной мишени, произведя залп. Вероятности попадания в мишень для первого стрелка 0,9; для второго – 0,8. Найти вероятность того, что и мишени будет а) одна дырка; б) две дырки; в) хоть одна дырка;

Пусть А – попадание в мишень первого стрелка; В – попадание в мишень второго стрелка. Тогда – поражение мишени (хотя бы одним стрелком), - поражение мишени первым стрелком, - поражение мишени вторым стрелком. а) б) в) Имеем , то есть .Или

Определение 2. Назовем событие А, событие В и событие С независимыми в совокупности, если выполняются условия:

р(АВ)=р(А)р(В), р(АС)=р(А)р(С), р(ВС)=р(В)р(С), Р(АВС)=р(А)р(В)р(С).

Аналогично определяется понятие независимости в совокупности и большего числа событий. Из определения независимости событий в совокупности следует, что формула умножения вероятностей для независимых в совокупности событий имеет вид

.

Очевидно, что из независимости в совокупности следует попарная независимость случайных событий, однако можно показать, что из попарной независимости не вытекает независимость в совокупности.

Задача Бернштейна. Бросанем правильный тетраэдр, 3 грани которого окрашены соответственно в синий, красный, зеленый цвета, четвертая же грань окрашена всеми этими цветами одновременно. Если С, К, З – случайные события, заключающиеся в том, что тетраэдр падает на грани, окрашенные соответственно в синий, красный и зеленый цвета, то эти события попарно независимы, но не являются независимыми в совокупности.

Действительно, Р(СК)=1/4=0,5∙0,5=Р(С)×Р(К); следовательно, события С и К независимы. Аналогично Р(СЗ)=Р(С)×Р(З) и Р(КЗ)=Р(К)×Р(З). Таким образом, случайные события С,К,З – попарно независимы. Но Р(СКЗ)=1/4≠1/8=P(С)P(К)P(З); следовательно, они не являются независимыми в совокупности.

Схемы испытаний

 

Напомним, что опытом в теории вероятностей называют контролируемое осуществление некоторого комплекса условий S, которое можно повторить неограниченное число раз. Пусть производится n опытов (испытаний), в каждом из которых может наступить один из N исходов. Определение 1. Если результаты одного испытания не зависят от результатов других испытаний, то такие испытания называются независимыми.

Пример. В урне 3 белых и 4 чёрных шара. Вынимают 2 шара по очереди. Событие А – вытащить 1й шар белый B и второй белый. Событие В – вытащить 2й шар белый. Покажем, что события А и В зависимы. , , .

Возможны две ситуации: условия проведения испытаний не меняются (ситуация А) или меняются от испытания к испытанию (ситуация В).

Определение 2. Схема независимых испытаний с неизменными условиями и с двумя исходами в каждом из которых некоторое случайное событие А наступает с одной и той же вероятностью p = P(A), не изменяющейся от испытания к испытанию, называется схемой Бернулли.

Схема Бернулли отвечает на следующие группы вопросов:

I. Какова вероятность того, что в серии из независимых испытаний событие появится ровно раз. В этом случае любой исход n испытаний Бернулли представляет собой последовательность длины n, состоящую из k "успехов" и (n – k) "неуспехов". Вероятность каждого такого исхода по теореме умноже­ния независимых случайных событий равна pk(1 - p)n-k или pkqn-k, где q=1 - p. Число таких комбинаций равно числу способов выбора k мест из n для "ус­пеха". Тогда формула Бернулли.

Пример. Какова вероятность с пяти раз вытащить из колоды в 36 карт ровно три туза? Карты каждый раз возвращаются в колоду.

Пример. Что вероятнее: выиграть у равносильного противника в шахматы 2 партии из трех или 3 партии из четырех? Р3(2)= (1/2)2(1/2) = 3/8, Р4(3) = (1/2)3(1/2) = 1/4. То есть вероятнее выиграть 2 партии из трех.

Приближения. При большом числе n повторных испытаний использование формулы Бернулли затруднительно в связи с необходимостью выполнения дейст­вий над очень большими числами.

 

 

Случайные величины

 

Случайная величина – это величина (число), которая в результате опыта может принимать то или иное значение.

Более строго, случайная величина – это числовая функция случайного события.

Случайная величина называется дискретной, если множество ее значений конечно или счетно. Здесь - алгебра событий. Например, число очков на грани брошенной кости, число бросков монеты до появления герба – дискретные случайные величины.

Случайная величина называется непрерывной, если ее значения заполняют некоторый интервал, возможно, бесконечный. Здесь - сигма - алгебра событий. Например, расстояние от центра мишени при стрельбе, время до отказа прибора, ошибка измерения – непрерывные случайные величины.

 

Рассмотрим дискретную случайную величину, принимающую значения . Имеем полную группу (иначе, не все значения учтены) несовместных событий . Вероятности этих событий равны соответственно . Будем говорить, что дискретная случайная величина принимает значения с вероятностями .

Законом распределения дискретной случайнойвеличины называется любое соотношение, устанавливающее зависимость между ее значениями и вероятностями , с которыми эти значения достигаются.

Основные формы закона распределения дискретной случайной величины: ряд распределения – таблица

…..
…..

многоугольник распределения

p3

p2

p1, pn

x1 x2 x3 …xn

Можно задать закон распределения в виде аналитической зависимости, связывающей значения и вероятности .

Рассмотрим непрерывную случайную величину. Для непрерывной случайной величины , поэтому рассматривают события и вероятности этих событий.

Функцией распределения непрерывной случайной величины называется вероятность события . = .

Свойства дисперсии.

1) (под интегралом стоит квадрат функции).

2) (.

3) (выведите сами, вынося из под суммы или из под интеграла).

Средним квадратическим отклонением называется .

Кроме этих основных числовых характеристик используются коэффициент асимметрии , эксцесс – мера островершинности распределения , среднее арифметическое отклонение , мода – наиболее вероятное значение для дискретных величин или значение, где плотность максимальна для непрерывных величин, медиана Me – абсцисса точки, в которой площадь, ограниченная кривой плотности распределения, делится пополам (точка, в которой F(x) = ½).

Пример. Стрелок делает один выстрел и с вероятностью p попадает в мишень. Пусть X – количество попаданий в мишень. Это – дискретная случайная величина, принимающая два значения х1 = 0 и х2 = 1 с вероятностями q = 1-p, p соответственно. Построим ряд распределения Х

 

 

xi    
pi q p

 

Функция распределения равна ,

Математическое ожидание равно M(X) = mx = 0 q + 1 p = p.

Если составить ряд распределения для случайной величины X2, то мы получим ту же таблицу (так как 02 = 0 и 12 =1). Поэтому M(X2) = p, а дисперсию можно вычислить по формуле D(X) = M(X2) – (mx)2 = p – p2 = p(1-p) = pq.

Распределение называется равномерным на отрезке [a,b], еслиплотность случайной величины X постоянна на отрезке [a,b] p(x) = p и равна нулю вне этого отрезка.

Из условия нормировки для плотности вероятности следует

. Отсюда следует, что - плотность равномерного распределения. Функция распределения величины, распределенной равномерно на отрезке [a,b], равна

. Вычислим математическое ожидание и дисперсию величины, распределенной равномерно на отрезке [a,b].

,

=

=

Повторные испытания.

Пусть производится n опытов (испытаний), в каждом из которых может наступить один из N исходов. Если результаты одного испытания не зависят от результатов других испытаний, то такие испытания называются независимыми.

Например, стрелок делает n выстрелов в мишень, в которой N колец: десятка, девятка и т.д.

Возможны две ситуации: условия проведения испытаний не меняются (ситуация А) или меняются от испытания к испытанию (ситуация В).

Рассмотрим ситуацию А.

Пусть число исходов равно двум (N = 2). Схема независимых испытаний с двумя исходами называется схемой Бернулли.

Два исхода соответствуют в приведенном примере попаданию (успеху) или не попаданию в мишень, причем в каждом выстреле вероятность попадания равна p, а вероятность промаха равна q = 1 – p. Обозначим вероятность попасть m раз из n выстрелов P(m,n). , так как в каждом опыте стрелок промахивается. Вероятность попасть один раз равна , так как стрелок может попасть при первом, втором, … n ом выстреле. ,так как два попадания (порядок не важен) должны быть размещены (выборки без возвращения) среди n выстрелов. Аналогично

- формула Бернулли.

Само распределение называют биномиальным.

В самом деле, это – коэффициенты при в разложении по степеням

производящей функции .

Из формулы Бернулли вытекают два следствия:

1) Вероятность появления успеха в n испытаниях не более m1 раз и не менее m2 раз равна ,

2) Вероятность хотя бы одного успеха в n испытаниях равна .

Если Х имеет биномиальное распределение, то Мх = np, Dx = npq.

Пусть в ситуации А число исходов равно N, а их вероятности равны p1…pN. Вычислим вероятность того, что после n испытаний i – тый исход наступит раз

.

Заметим, что .

так как .

Поэтому . Это – полиномиальное распределение.

Заметим, что - это коэффициенты при в разложении по степеням производящей функции .

Рассмотрим ситуацию В. Здесь вероятность того или иного исхода зависит от номера испытания, так как условия испытаний различны. - это коэффициенты при в разложении по степеням производящей функции при N исходах.

При двух исходах - это коэффициент при в разложении производящей функции

, где .

Примеры.

1) Какова вероятность с пяти раз вытащить из колоды в 36 карт а)три туза, б)не менее одного туза?

а) , б) .

2) Мишень для опытного стрелка содержит три круговых кольца: 10, 9, пусто. Вероятность попасть при одном выстреле в десятку – 0,2, в девятку – 0,7, в «пусто» – 0,1. Какова вероятность в серии из 10 выстрелов попасть в «пусто» два раза, в девятку 4 раза, в десятку 4 раза?

3) Производится три выстрела в мишень. При первом выстреле вероятность попасть в мишень равна 0,5, не попасть 0.5. При втором выстреле – соответственно 0,4 и 0.6, при третьем выстреле 0,3 и 0,7. Какова вероятность два раза попасть в мишень?

.

Вероятность не попасть ни разу 0,21, один раз – 0,44, два раза – 0,29, три раза – 0,06.

 

Свойства плотности.

 

1. (функция распределения – неубывающая функция).

2. (по свойству 5 функции распределения) Справедливо обобщение .

3.

4. (по свойству 4 функции распределения)

5.

6. , (Свойство 7 функции распределения)

 

Математическое ожидание.

Математическим ожиданием функции двумерной случайной величины называется

в дискретном случае,

в непрерывном случае.

Свойства ковариации.

1.

2.

По свойству 1

3. Если X, Y независимы, то , (обратное неверно).

Если случайные величины независимы, то , тогда по свойству 1 .

Случайные величины называются некоррелированными, если , из некоррелированности не следует независимость, из независимости следует некоррелированность.

Коэффициентом корреляции случайных величин X и Y.называется .

Можно показать, что , поэтому . Если , то говорят, что между X и Y существует положительная корреляция; это означает, что с увеличением значений одной случайной величины, другая имеет тенденцию к возрастанию. Если , то говорят, что между X и Y существует отрицательная корреляция; это означает, что с увеличением значений одной случайной величины другая имеет тенденцию к убыванию. Если , это означает, что случайные величины X и Y некоррелированны.

Если между случайными величинами X и Y существует линейная зависимость, то . Действительно, пусть . В этом случае

;

.

Тогда

.

Информацию о связи между компонентами X и Y системы (X,Y) несет корреляционная матрица, которая имеет вид

.

Матрица К является симметричной вследствие равенства .

Кроме корреляционного момента и коэффициента корреляции, взаимная связь двух случайных величин может быть описана с помощью линий регрессии.

Действительно, при каждом значении Х = х величина Y остается случайной величиной, допускающей рассеяние своих значений, однако зависимость Y от Х сказывается также в изменении средних значений Y при переходе от одного значения X к другому. Эту зависимость и описывает кривая регрессии

.

Аналогично, зависимость X от Y, которая сказывается в изменении средних значений X при переходе от одного значения Y = y к другому, описывается кривой регрессии

.

Наиболее простым случаем будет тот, когда обе функции линейны, так что обе линии регрессии будут прямыми линиями; они называются прямыми регрессии. В этом случае будем говорить о линейной корреляции между случайными величинами X и Y.

Выведем уравнения прямых регрессии. Пусть MX = mx, MY = my, Dx = , Dy = , Kxy – корреляционный момент случайных величин X и Y. Будем искать уравнение прямой регрессии Y на X в виде , где параметры A и B подлежат определению.

Взяв математическое ожидание от обеих частей последнего равенства и учитывая, что , имеем, что . Далее

, откуда .

Таким образом, в случае линейной корреляции уравнение прямой регрессии Y на X имеет вид

.

Аналогично уравнение прямой регрессии X на Y имеет вид

.

Если учесть, что , то уравнения прямых регрессии могут быть переписаны в симметричной форме:

;

.

Из уравнений прямых регрессии (3.3.13) и (3.3.14) видно, что обе прямые проходят через точку (mx,my). Угловые коэффициенты прямых регрессии равны соответственно:

, .

Так как , прямая регрессии Y на X имеет меньший угол наклона к оси Ох, чем прямая регрессии X на Y. Чем ближе к 1, тем меньше угол между этими прямыми; при = 1 прямые регрессии сливаются. При прямые регрессии имеют уравнения и , так что обе они параллельны соответствующим осям координат. В этом случае величины X и Y являются некоррелируемыми; для них , , т. е. условные математические ожидания совпадают с безусловными.

ПОНЯТИЕ ВЫБОРКИ.

Понятие выборки и способов её получения есть одно из центральных понятий математической статистики. Говорят, что каждая третья студентка Гарвардского университета выходит замуж за одного из своих преподавателей. На самом же деле в 1901 году в университете обучались только З девушки, одна из которых вышла замуж за своего профессора. Ясно, что в данном случае недостаточен объём выборки. Но не так просто сказать, какойобъём выборки достаточен.



Поделиться:


Последнее изменение этой страницы: 2017-02-05; просмотров: 314; Нарушение авторского права страницы; Мы поможем в написании вашей работы!

infopedia.su Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав. Обратная связь - 18.118.32.213 (0.17 с.)