Мы поможем в написании ваших работ!



ЗНАЕТЕ ЛИ ВЫ?

Комбинаторика. Элементарная теория вероятностей. Методы вычисления вероятностей.

Поиск

Предмет теории вероятностей. Пространство элементарных событий. Понятие случайного события. Определения вероятности.

Теория вероятностей –математическая наука, изучающая закономерности, присущие массовым случайным явлениям. При этом изучаемые явления рассматриваются в абстрактной форме, независимо от их конкретной природы. То есть теория вероятности рассматривает не сами явления, а их упрощенные схемы-математические модели.
Предметом теории вероятности являются математические модели случайных явлений, предсказать исход которого невозможно (при неоднократном воспроизведении одного и того же опыта оно протекает каждый раз несколько по-иному).
Цель теории вероятности – осуществление прогноза в области случайных явлений, влияние на ход этих явлений, контроль их, ограничение сферы действия случайности. В настоящее время практически нет ни одной области науки, в которой в той или иной степени не применялись бы вероятностные методы.
Множество - {W} всех возможных взаимоисключающих исходов данного опыта называется пространством элементарных событий (коротко: ПЭС), а сами исходыW- элементарными событиями (или «элементами», «точками»).
Случайным событием (или просто: событием) называется любой исход опыта, который может произойти или не произойти.
Вероятностью события А называется отношения числа m-случаев, благоприятствующих этому событию, к общему числу n-случаев. P(A)=m/n.
Благоприятным называется случай , который приводит к наступлению события А.
Геометрической вероятностью события А называется отношение меры области D, благоприятствующей событию А, к мере области . P(A)=mesD/mes .

2.Алгебра случайных событий.
Случайным событием (или просто: событием)
называется любой исход опыта, который может произойти или не произойти.
События обозначаются, как правило, заглавными буквами латинского алфавита: А, В, С,..
Действия над событиями:
Суммой событий А и В называется событие С = А + В, состоящее в наступлении хотя бы одного из них (т.е. или А, или В, или А и В вместе).
Произведением событий А и В называется событие С = А * В, состоящее в совместном наступлении этих событий (т. е. и А и В одно­временно).
Разностью событий А и В называется событие С = А \ В, про­исходящее тогда и только тогда, когда происходит событие А, но не происходит событие В.
Противоположным событию А называется событие не А, которое происходит тогда и только тогда, когда не происходит событие А (т. е. не А означает, что событие А не наступило).
Событие А влечет событие В (или А является частным случаем В), если из того, что происходит событие А следует, что происходит событие В; записывают А В.
Если А В и В А, то события А и В называются равными; записывают А = В.
Пример: В = {2,4,6}, Е = {3.4.5.6}. А = {5}, D = {1,2,3.4,5.6}. Тогда: В + Е = {2,3,4.5.6}. B*E = {4,6}, В-Е = {2}, А= {1.2,3,4,6}, В D, D =Ώ = {1.2.3.4.5.6}.
События и действия над ними можно наглядно иллюстрировать с помощью диаграмм Эйлера-Венна: достоверное событие Ώ изобража­ется прямоугольником; элементарные случайные события — точками прямоугольника; случайное событие — областью внутри него.

Операции над событиями обладают следующими свойствами:

А + В = В + А, А *В = В *А- коммутативность, (переместительное); (А + В) + С = А +(В + С), (А*В)*С = А*(В*С)-ассоциативность, (сочетательное); (А + В)С = А*С + В*С-дистрибутивность; А + А = А, А + = ,А+∅=А,-поглощение А * А = А, А * = ,А*∅=∅,-поглощение; =А-отрицание отрицание; = * , и наоборот-закон де Моргана
Теоретико-множественная трактовка
Множество - {W} всех возможных взаимоисключающих исходов данного опыта называется пространством элементарных событий (коротко: ПЭС), а сами исходы W - элементарными событиями (или «элементами», «точками»).
Случайным событием А (или просто событием А) называется любое подмножество множества ,если конечно или счетно (т. е. элементы этого множества можно пронумеровать с помощью множества натуральных чисел): А
Элементарные события, входящие в подмножество А пространства , называются благоприятствующими событию А.
Класс S подмножеств пространства называется алгеброй множеств (событий), если:

1. ∅ S 2. из A S вытекает, что S; 3. из А S, В S вытекает, что А + В S, А * В S

Независимые события.

Событие А называется независимым от события В, если вероятность события А не зависит от того, наступило событие В или нет. В противном случае событие А называется зависимым от события В.

События А и В -независимы. P(A*B)= P(A)* P(B/A)= P(A)* P(B).

ТЕОРЕМА: для двух событий верна формула P(A*B)= P(A)* P(B), то события А и В являются независимыми.

ЛЕММА: Если событие В не зависит от события А, то событие А не зависит от события В.

ЛЕММА: Если события А и В независимы, то независимы и события не А и В, А и не В.

ЛЕММА: Если события А и В независимы, то независимы не А и не В.

Понятие независимых событий – одно из центральный в теории вероятностей.

Понятие независимости может быть распространено на случай n событий.

Опр. События А1, А2,…Аn называются независимыми (или независимыми в совокупности), если каждое из них не зависит от произведения любого числа остальных событий и от каждого в отдельности.

ТЕОРЕМА: Если события А1, А2,…Аn независимы в совокупности, то вероятность их одновременного появления вычисляется по формуле: P(A1*A2*A3)= P(A1) * P(A2) * P(A3)

 

Схема Бернулли.

Последовательность n-независимых испытаний, в каждой из которых может произойти событие А с вероятностью р, а может произойти не А с вероятностью q, q=1-p=P(A)

Формула Бернулли.

Если производится n-независимых испытаний в схеме Бернулли, тогда вероятность того, что событие А произойдет n-раз, определяется формулой

 

 


Распределение Вейбулла

f(x)= {0, x<0

{aλx^a-1*exp(-λx), если x>=0

Математическое ожидание и мода случайной величины, распределённые по закону Вейбула, имеют следующий вид:

M(X)=a+bΓ(1+1/n);

Распределение Вейбула в ряде случаев характеризует срок службы радиоэлектронной аппаратуры и, кроме того, применяется для аппроксимации различных несимметричных распределений в математической статистике.

Распределение Коши

Распределение Парето

Гамма-распределение

Говорят, что случайная величина X имеет гамма-распределение с параметрами a>0 и b>0, если её плотность распределения вероятностей имеет вид

f(x)= {0, если x<=0

{c*x^λ-1*e^-ax, если x>0

Понятие интервальной оценки

При выборке малого объема точечная оценка может значительно отличаться от оцениваемого параметра. Поэтому при небольшом объеме выборки следует пользоваться так называемыми интервальными оценками.

Статистическая оценка называется интервальной, если она выражается двумя числами – концами интервала , покрывающего оцениваемый параметр . Уточнение понятия интервальной оценки требует введения ряда важных сопровождающих понятий.

Точность оценки. Надежность оценки. Доверительный интервал:Пусть – неизвестный оцениваемый параметр теоретического распределения признака Cгенеральной совокупности ( есть постоянное число), – его точечная статистическая оценка, найденная по данным выборки ( – случайная величина, меняющаяся от выборки к выборке). Ясно, что оценка тем точнее определяет параметр , чем меньше модуль разности . Если рассмотреть неравенство , то число будет характеризовать точность оценки (чем меньше , тем оценка точнее).

Итак, точностью оценки называется такое положительное число , которое удовлетворяет неравенству .Поскольку точечная оценка является случайной величиной, мы не можем абсолютно доверительно утверждать, что оценка будет (при заданной точности ) удовлетворять неравенству . Это неравенство является случайным событием и, следовательно, оно может осуществляться лишь с некоторой вероятностью.

Надежностью (или доверительной вероятностью) оценки называется вероятность , с которой выполняется неравенство , т.е.

(1)На практике надежность назначается (задается наперед): это достаточно большая вероятность (0,95; 0,99; 0,999) – такая, чтобы событие с вероятностью можно было считать практически достоверным. Выбор величины диктуется особенностями каждой конкретно рассматриваемой задачи.

Так как неравенство равносильно неравенству , то формулу (1) можно истолковать следующим образом: с заданной надежностью интервал накрывает неизвестный оцениваемый параметр . Таким образом, мы приходим к следующему основному определению:

доверительным интервалом для оцениваемого параметра называется интервал вида , накрывающий неизвестный параметр с заданной надежностью (рис.10.).
Границы и этого интервала называют доверительными границами.

В случае "больших" выборок () стандартными в теории вероятностей методами доказывается, что искомая точность вычисляется по формуле

, (2)где величина определяется по специальной таблице значений функции Лапласа, исходя из равенства

.Сам же искомый доверительный интервал имеет вид В случае "малых" выборок () доказывается, что точностьоценивания находится по формуле ,где величина определяется по специальной таблице Стьюдента значений функции [1].

Стандартными методами в теории вероятностей устанавливается, что искомая точность оценивания вычисляется по формуле ,

где величина определяется по специальной таблице значений функции [2].

Оценки параметров распределения случайных величин в виде среднего арифметического для оценки математического ожидания и СКО для оценки дисперсии называются точечными оценками, так как они выражаются одним числом. Однако в некоторых случаях знание точечной оценки является недостаточным. Наиболее корректной и наглядной оценкой случайной погрешности измерений является оценка с помощью доверительных интервалов.

Симметричный интервал в границами ± Δх(Р) называется доверительным интервалом случайной погрешности с довери-тельной вероятностью Р, если площадь кривой распределения между абсциссами – Δх и + Δх составляет Р -ю часть всей площади под кривой плотности распределения вероятностей. При нормировке всей площади на единицу Р представляет часть этой площади в долях единицы (или в процентах). Другими словами, в интервале от -Dх(Р) до +Dх(Р) с заданной вероятностью Р встречаются Р ×100% всех возможных значений случайной погрешности.

Доверительный интервал для нормального распределения находится по формуле:

где коэффициент t зависит от доверительной вероятности Р.

Для нормального распределения существуют следующие соотношения между доверительными интервалами и доверительной вероятностью: 1s (Р=0,68), 2s (Р= 0,95), 3s (Р= 0,997), 4s (Р=0,999).

Доверительные вероятности для выражения результатов измерений и погрешностей в различных областях науки и техники принимаются равными. Так, в технических измерениях принята доверительная вероятность 0,95. Лишь для особо точных и ответственных измерений принимают более высокие доверительные вероятности. В метрологии используют, как правило, доверитель-ные вероятности 0,97, в исключительных случаях 0,99. Необходимо отметить, что точность измерений должна соответствовать поставленной измерительной задаче. Излишняя точность ведет к неоправданному расходу средств. Недостаточная точность измерений может привести к принятию по его результатам ошибочных решений с самыми непредсказуемыми последствиями, вплоть до серьезных материальных потерь или катастроф.

При проведении многократных измерений величины х, подчиняющейся нормальному распределению, доверительный интервал может быть построен для любой доверительной вероятности по формуле:

где tq – коэффициент Стьюдента, зависящий от числа наблюдений n и выбранной доверительной вероятности Р. Он определяется с помощью таблицы q -процентных точек распределения Стьюдента, которая имеет два параметра: k = n – 1 и q = 1 – P; – оценка среднего квадратического отклонения среднего арифметического.

Доверительный интервал для погрешности Dх(Р) позволяет построить доверительный интервал для истинного (действи-тельного) значения измеряемой величины, оценкой которой является среднее арифметическое . Истинное значение измеряе-мой величины находится с доверительной вероятностью Р внутри интервала: . Доверительный интервал позволяет выяснить, насколько может измениться полученная в результате данной серии измерений оценка измеряемой величины при проведении повторной серии измерений в тех же условиях. Необходимо отметить, что доверительные интервалы строят для неслучайных величин, значения которых неизвестны. Такими являются истинное значение измеряемой величины и средние квадратические отклонения. В то же время оценки этих величин, получаемые в результате обработки данных наблюдений, являются случайными величинами.

Недостатком доверительных интервалов при оценке случай-ных погрешностей является то, что при произвольно выбираемых доверительных вероятностях нельзя суммировать несколько погреш-ностей, т.к. доверительный интервал суммы не равен сумме довери-тельных интервалов. Суммируются дисперсии независимых случай-ных величин: Då = åDi. То есть, для возможности суммирования составляющие случайной погрешности должны быть представлены своими СКО, а не предельными или доверительными погрешностя-ми.

Цепи Маркова

Определение. Цепью Маркова называют последовательность испытаний, в каждом из которых появляется одно и только одно из несовместных событий полной группы, причем условная вероятность того, что в -м испытании наступит событие , при условии, что в -м испытании наступило событие , не зависит от результатов предшествующих испытаний.

Например, если последовательность испытаний образует цепь Маркова и полная группа состоит из четырех несовместных событий , причем известно, что в шестом испытании появилось событие , то условная вероятность того, что в седьмом испытании наступит событие , не зависит от того, какие события появились в первом, втором, …, пятом испытаниях.

Заметим, что независимые испытания являются частным случаем цепи Маркова. Действительно, если испытания независимы, то появление некоторого определенного события в любом испытании не зависит от результатов ранее произведенных испытаний. Отсюда следует, что понятие цепи Маркова является обобщением понятия независимых испытаний.

Часто при изложении теории цепей Маркова придерживаются иной терминология и говорят о некоторой физической системе , которая в каждый момент времени находится в одном из состояний: , и меняет свое состояние только в отдельные моменты времени то есть система переходит из одного состояния в другое (например из в ). Для цепей Маркова вероятность перейти в какое-либо состояние в момент зависит только от того, в каком состоянии система находилась в момент , и не изменяется от того, что становятся известными ее состояния в более ранние моменты. Так же в частности, после испытания система может остаться в том же состоянии («перейти» из состояния в состояние ).

Таким образом, события называют состояниями системы, а испытания – изменениями ее состояний.

Дадим теперь определение цепи Маркова, используя новую терминологию.

Теорема 1. При любых s, t

(3)

Доказательство. Вычислим вероятность по формуле полной вероятности, положив

(4)

Из равенств

и

следует

Отсюда из равенств (4) и

получим утверждение теоремы.

Определим матрицу В матричной записи (3) имеет вид (5)

Так как то где − матрица вероятности перехода. Из (5) следует

(6)

Результаты, полученной в теории матриц, позволяют по формуле (6) вычислить и исследовать их поведение при

 

Спектральное разложение

Стационарный случайный процесс может быть представлен каноническим разложением вида:

,

где Vk и Uk –некоррелированные и центрированные случайные величины с дисперсиями D [ Vk ] = D [ Uk ] = Dk; w – неслучайная величина (частота).

В этом случае каноническое разложение корреляционной функции определяется выражением

,

Каноническое разложение называется спектральным разложением стационарного случайного процесса. Спектральное разложение может быть также представлено в виде

,

где qk – фаза гармонического колебания элементарного стационарного случайного процесса, являющаяся случайной величиной равномерно распределенной в интервале (0, 2 p); Zk – амплитуда гармонического колебания элементарного стационарного случайного процесса – тоже случайная величина.

Случайные величины qk и Zk зависимы. Для них имеют место соотношения:

, .

Таким образом, стационарный случайный процесс может быть представлен в виде суммы гармонических колебаний со случайными амплитудами Zk и случайными фазами qk на различных неслучайных частотах wk.

Так как корреляционная функция стационарного случайного процесса X (t) является четной функцией своего аргумента, т. е. kx (t) = kx (–t), то ее на интервале (– T, T) можно разложить в ряд Фурье по четным (косинусам) гармоникам

, где wk и Dk определяются выражениями:

, , (6.46)

, .

Подставляя в выражение (6.45) t = 0, получим каноническое разложение для дисперсии стационарного случайного процесса:

.

Таким образом, дисперсия стационарного случайного процесса, представленная своим каноническим разложением, равна сумме дисперсий всех гармоник его спектрального разложения.

Используя формулы при k = 1, 2, 3, …, можно построить график изменения дисперсий Dk по частотам wk (рис.6.7). Зависимость Dk = f (wk)в этом случае называется дискретным спектром дисперсий или просто – дискретным спектром стационарного случайного процесса.

 

Рис.6.7. Дискретный спектр стационарного случайного процесса.

В пределе, при (т. е. при ) мы перейдем к непрерывному спектру.

В качестве характеристики распределения дисперсии по частотам непрерывного спектра используется спектральная плотность – Sx (w), которую можно рассматривать, как предел отношения дисперсии приходящейся на каждую частоту к D w:

. В этом случае выражение примет вид:

. Таким образом, корреляционная функция и спектральная плотность стационарного случайного процесса связаны косинус-преобразованием Фурье. Следовательно, спектральная плотность стационарного случайного процесса может быть выражена через корреляционную функцию по формуле

.Спектральная плотность обладает следующими свойствами.

1. Она является неотрицательной функцией частоты:

. (6.53)

2. Интеграл от спектральной плотности в пределах от 0 до ∞ равен дисперсии стационарного случайного процесса: . По аналогии с нормированной корреляционной функцией вводится нормированная спектральная плотность: . (6.55)

Нормированная корреляционная функция и нормированная спектральная плотность также связаны между собой преобразованием Фурье , . (6.57)

Интеграл от нормированной спектральной плотности в пределах от 0 до ∞ равен единице:

. Таким образом, если на графике нормированной спектральной плотности (рис.6.8) рассматривать полосу частот от w 1 до w 2, то площадь подграфика, заключенная в интервале от w 1 до w 2, будет равна доле дисперсии случайного процесса, приходящейся на эти частоты. При этом общая площадь подграфика будет равна единице.

Таблица 6.1

Различные определения спектральной плотности

Спектральная плотность

Корреляционная функция

При аналитических расчетах нередко используется спектральная плотность в комплексной форме . В этом случае рассматриваются как положительные, так и отрицательные частоты, а и S (w) связаны соотношением:

Спектральная плотность в комплексной форме обладает следующими свойствами:

1. является неотрицательной функцией частоты, то есть:

.

2. Интеграл от в бесконечных пределах равен дисперсии случайного процесса:

. 3. – четная функция аргумента w:

.

Пара преобразований Фурье для корреляционной функции и спектральной плотности в комплексной форме имеет вид: , .

Следует отметить, что если спектральную плотность для действительных случайных процессов рассматривать как часть спектральной плотности , лежащую в области положительных частот, то мы получим определение S (w), приведенное в строке 2 таблицы 6.1. Однако в этом случае интеграл от нормированной спектральной плотности будет равен 0.5, а не единице, что с формальной точки зрения не очень хорошо.

19.Основные статистические описания. Вариационный ряд и эмпирические квантили. Распределение частот. Эмпирический коэффициент корреляция. Межгрупповая дисперсия.

Ряды распределения, построенные по количественному признаку (возраст, стаж, сроки расследования или рассмотрения дел, число судимостей и т.д.), называются вариационными рядами. Различия единиц совокупности (до 20 лет, 20-24 года, 25-29 лет и т.д.) количественного признака называется вариацией, а сам конкретный признак – вариантой.

Вариация признаков может быть дискретной, или прерывной (20, 21, 22, 23, 24, 25 лет и т.д.), либо непрерывной (до 20 лет, 20-25, 25-30 лет и т.д.). При дискретной вариации величина количественного признака (варианты) может принимать вполне определенные значения, отличающиеся в нашем примере на 1 год (20,21,22 и т.д.). При непрерывной вариации величина количественного признака у единиц совокупности в определенном численном промежутке (интервале) может принимать любые значения, хоть сколько-нибудь отличающиеся друг от друга. Например, в интервале 20-25 лет возраст конкретных сотрудников может быть 20 лет и 2 дня, 21 год и 10 месяцев и т.д.

Вариационные ряды, построенные по дискретно варьирующим признакам, именуют дискретными вариационными рядами, а построенные по непрерывно варьирующим признакам (интервалам) – интервальными вариационными рядами. Вариационный ряд всегда состоит из двух основных граф (колонок) цифр.

В первой колонке указываются значения количественного признака в порядке возрастания. В нашем примере интервального вариационного ряда: до 20 лет, 20-24 года, 25-29 лет и т.д. При дискретной вариации 20, 21, 22, 23, 24, 25 лет. Эти значения количественного признака и называют вариантами. В статистической литературе этот термин иногда употребляется как существительное мужского рода (вариант, варианты), а иногда – как существительное женского рода (варианта, варианты).

Во второй колонке указываются числа единиц, которые свойственны той или иной варианте. Их называют частотами, если они выражены в абсолютных числах, т.е. сколько раз в изучаемой совокупности встречается та или иная варианта, или частостями, если они выражены в удельных весах или долях, т.е. в процентах или коэффициентах к итогу.

Интервальный вариационный ряд иногда строится с равными интервалами (20-24, 25-29 лет), а иногда с неравными (14-15, 16-18, 19-20, 21-25 лет) интервалами. В первом случае оба интервала равны 5 годам, а во втором случае – 2, 3, 5 годам. При построении интервального ряда с непрерывной вариацией верхняя граница каждого интервала обычно является нижней границей последующего (20-25, 25-30, 30-35 и т.д.), а в построении интервального ряда по дискретному признаку границы смежных интервалов не повторяются (1-5 дней, 6-10 дней, 11-15 дней и т.д.)

Статистический анализ вариационных рядов требует не только наличия единичных частот (частостей), но и накопленных частот (частостей). Накопленная частота для той или иной варианты представляет собой сумму частот всех предшествующих вариант (интервалов). В нашем примере (табл. 1) для интервала 20-24 года накопленная частота будет равна:
2 + 18 = 20 человек, а накопленная частость 4 + 36 = 40 %, а для интервала 25-29 лет соответственно: 2 + 18 + 10 = 30 человек, или 4 + 36 + 20 = 60 %. Таким образом, от варианты к варианте (от интервала к интервалу) идет накопление (кумуляция) частот и частостей.

Вариационные ряды легко изображаются графически в виде полигона или гистограммы. Графическое изображение накопленных частот (частостей) воспроизводится в системе прямоугольных координат в виде кумуляты, или кумулятивной кривой. По оси ординат откладывается величина накопленных частот, а по оси абсцисс – возрастающие значения количественного признака. Накопленные частоты и кумулята – это интегральные показатели плотности распределения в вариационном ряду.

Квантили и процентные точки распределения.При использовании различных методов математической статистики, особенно разнообразных статистических критериев методов построения интервальных оценок неизвестных параметров широко используются понятия -квантилей и -процентных точек распределения

Квантилью уровня q (или -квантилью) непрерывной случайной величины обладающей непрерывной функцией распределения называется такое возможное значение этой случайной величины, для которого вероятность события равна заданной величине q, т. е.

Очевидно, чем больше заданное значение тем больше будет и соответствующая величина квантили Частным случаем квантили — -квантилью является характеристика центра группирования — медиана.

Для всякой дискретной случайной величиныфункция распределения с увеличением аргумента меняется, как мы видели, скачтми, и, следовательно, существуют такие значения уровней q, для каждого из которых не найдется возможного значения точно удовлетворяющего уравнению

Эмпирическими аналогами теоретических квантилей, как легко понять, будут члены вариационного ряда (порядковые статистики). Из их определения, в частности, следует что порядковая статистика является одновременно выборочной квантилью уровня.

Часто вместо понятия квантили используют тесно связанное с ним понятие процентной точки. Под -процентной точкой случайной величины понимается такое ее возможное значение для которого вероятность события равна т. е.

Для дискретных случайных величин это определение корректируется аналогично тому, как это делалось при определении квантилей.

Из определения квантилей и процентных точек вытекает простое соотношение, их связывающее:

Для ряда наиболее часто встречающихся в статистической практике законов распределения составлены специальные таблицы квантилей и процентных точек. Очевидно, достаточно иметь только одну из таких таблиц, так как если, например, по таблицам процентных точек требуется найти -кванти



Поделиться:


Последнее изменение этой страницы: 2016-08-14; просмотров: 376; Нарушение авторского права страницы; Мы поможем в написании вашей работы!

infopedia.su Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав. Обратная связь - 18.225.255.196 (0.01 с.)