Мы поможем в написании ваших работ!



ЗНАЕТЕ ЛИ ВЫ?

Опыт с равновероятностными исходами. Вероятность и частота. Некоторые комбинаторные формулы.

Поиск

Аксиоматическое определение вероятности (по Колмогорову). Свойства вероятности. Свойства вероятности для полной группы событий.

Пусть F – подмножество элементарных событий.

Мн-во R нзв алгеброй множеств, если выполн.след.требования:

1) алгебра мн-в содерж.достоверные события:

ΩÎF, ØÎF

2) F содерж.как само событие, так и противоположное ему:

если АÎF, то ĀÎF

3) С любыми 2-мя событиями алгебра содержит их объединение и пересечение:

АÎF, BÎF => AÈBÎF, AÇBÎF

4) Для конечного набора событий алгебра содержит их объединение и пересечение:

An – конечный набор событий

,

Если все 4 усл-я выполн., то F нзв s-алгеброй.

Элементы мн-ва F нзв случайными событиями. Вероятностным пространством принято называть тройку символов: (Ω, F, P). F (s-алгебра подмн-ва Ω) нзв случ.событиями. Р(А) – вероятность, опред.на s-алгебре.

Аксиоматическое определение вероятности: Вероятностью соб.А нзв ф-ция Р(А), определенная на s-алгебре F, удовлетв. след. аксиомам вер-ти:

1. Р(А) ≥ 0; неотрицательность

Каждому соб.А ÎF ставится в соответствие неотрицательное число Р(А), называемое его вер-тью.

2. Р(Ω) = 1, Ω - достоверное событие;

Вер-ть достовер.события равна 1.

3. Для любых попарно несовмест.событий А1, А2…An справедливо след.рав-во:

Р(A1+A2+…An)=P(A1)+P(A2)+…+P(An)

4. Если послед-ть А1, А2…An такова, что каждое последующее ведет за собой предыдущее, и произведение событий есть невозможное событие, имеет место рав-во:

 

Осн.св-ва вероятности:

Если вер-ть соб.А Р(А)=1, но соб. А¹Ω, то говорят, что соб А в опыте G происходит почти наверное.

Если вер-ть соб.А Р(А)=0, но соб. А¹Ø, то говорят, что соб А в опыте G почти никогда не происходит.

Ω=Ø+Ω По аксиоме 3: Р(Ω)=Р(Ø)+Р(Ω)

1) Вер-ть невозможного соб.равна 0

Р(Ø) = 0

2) Если вер-ть соб. Р(А)=1, то отсюда не следует, что соб.А явл.достоверным

3) Если вер-ть соб. Р(А)=0, то отсюда не следует, что соб.А явл.невозможным

4) Если соб.А влечет за собой соб.В, то

АÌВ => P(A)£P(B)

Док-во: Если вер-ть монотонна, то Р(А)=Р(В). В=А+В\А; А(В\А)=Ø т.к. А и В\А несовместны. По аксиоме 1 и 3 Р(В)=Р(А)+Р(В\А)³Р(А)

 

 

5) Каково бы ни было случ.соб. А, его вер-ть неотрицательна и не больше 1.

0£Р(А)£1

Док-во: АÌΩ. По св-ву 4: Р(А)£Р(Ω)=1. По св-ву 1: 0£Р(А)

6) Вер-ть суммы 2-х произвольных событий А и В Î F выражается формулой:

Р(А+В)=Р(А)+Р(В)-Р(АВ)

Док-во: А+В=А+(В-АВ)

В=АВ+(В-АВ)

По аксиоме 3: Р(А+В)=Р(А)-Р(В-АВ)

Р(В)=Р(АВ)+Р(В-АВ)

=> Р(А+В)=Р(А)+Р(В)-Р(АВ)

7) Р(А+В)£Р(А)+Р(В) (по св-ву 6, Р(АВ)³0)

8)

Если соб. А1, А2…An несовмест., тогда нерав-во переходит в рав-во

Вер-ть суммы нескольких несовмест.соб.равна сумме их вер-тей.

9) Если А и В ÎF и АВ=Ø, то Р(С(А+В))=Р(СА)+Р(СВ)

Док-во: (СА)(СВ)=Ø, т.к. АВ=Ø

С(А+В)=СА+СВ => (по аксиоме 3) Р(С(А+В))=Р(СА+СВ)=Р(СА)+Р(СВ)

 

 

Св-ва вероятности для полной группы событий

Соб. Н1, Н2…Нn в некоем опыте G образ.полную группу несовмест.событий, если они попарно несовместны и в рез-те опыта произойдет хотя бы одно из событий Нi.

Н12+…+Нn

При этом соб. Н1, Н2…Нn, к-рые имеют положит.вер-ть, нзв гипотезами.

10) Если соб. Н1, Н2…Нn образ.полную группу, то

Р(Н1)+Р(Н2)+…+Р(Нn) =Р(Н12+…+Нn)=1

11) Для любого соб.А вер-ть противоположного соб.Ā определяется по формуле: Р(Ā)=1-Р(А)

Док-во: Ā= Ω/А, А*Ā= Ø – несовмест., А+Ā= Ω

Р(А+Ā)=1; по аскиоме 3: Р(А+Ā)=Р(А)+Р(Ā)=1

=> Р(Ā)=1- Р(А)

 

Математическое ожидание случайной величины и его свойства. Начальные и центральные моменты случайной величины. Условное математическое ожидание. Дисперсия случайной величины и её свойства. Связь различных случайных величин. Коэффициент корреляции и его свойства

Матожидание:

Опр: мат.ожиданием (или средним значением случайной величины ξ) нзв величина M[ξ], к-рая опред след образом:

Пример дискретной величины:

Кубик: N=6 {1,2,3,4,5,6}

M[ξ]=1/6(1+3+3+4+5+6)=3,5 => Вероятнее всего, выпадет 3 или 4.

Пример непрерывной величины:

ξ - точка координат, брошенная на удачу на отрезок [a;b]

Св-ва мат.ожидания:

1) мат. ожид. постоянной равно ей самой

M[c]=c, c=const. M[1]=1

2) постоянную величину можно вынести за знак мат. ожидания

M[c+ξ]=M[ξ]+c

M[c*ξ]=cM[ξ]

3) мат.ожидание суммы любых случ-ых величин равно сумме их математических ожиданий, если эти мат.ожидания существуют.

"ξ, η M[ξ+η]=M[ξ]+M[η]

4) мат. ожидание произведения независимых случайных величин равно произведению их мат.ожиданий

ξ, η – независ. M[ξ×η]=M[ξ]×M[η]

5) если ξ£η при всех элемент.исходах, то их мат.ожидания сохраняют соотношение: M[ξ]£M[η].

Начальные и центральные моменты случайной величины:

Опр: начальным моментом k-ого порядка случайной величины ξ нзв. мат.ожидание k-ой степени этой случайной величины

Опр: центральным моментом k-ого порядка случайной величины ξ нзв мат.ожидание k-ой степени центрированной случайной величины

Центрированной сл.вел-ной нзв разность м/у сл.вел-ной ξ и ее мат. ожиданием.

Условное математическое ожидание:

Если условная ф-ция распределения случ. величины ξ: Fξ(x|A), то в этом случае можно рассчитать усл.мат. ожид. по формуле:

где Ai – полная группа несовмест.событий, - ф-ции распред. ξ. M[ξ|A] нзв услов.мат.ожид.сл.вел-ны относительно события А.

Дисперсия случайной величины:

Опр: дисперсией случ.величины ξ нзв. мат.ожидание квадрата отклонения случ.величины ξ от её мат.ожидания.

Дисперсия характеризует степень рассеивания реализации случайной величины около её мат.ожидания.

Св-ва дисперсии

1) дисперсия постоянной величины равно нулю

D[c]=0, с=const

2)

3) Дисперсия суммы любых случайных величин равна сумме дисперсий этих величин (если эти дисперсии существуют)

4) если дисперсия случ. величны ξ равна нулю, то ξ равна постоянной с вероятностью, равной единице:

если D[ξ]=0, то ξ = Const с вероятностью р =1

5) дисперсию можно посчитать по формуле:

Связь различных сл.вел-н.

Две сл. вел-ны могут быть связаны либо функциональной зависимостью, либо зависимостью другого рода, называемой статистической, либо быть независимыми. Строгая функ-ная зав-ть реализуется редко, т.к. обе величины или одна из них подвержены еще действию случ.факторов, причем среди них могут быть и общие для обеих величин. В этом случае возникает статистическая зависимость. Стат-кой нзв зав-ть, при к-рой изменение одной из величин влечет изменение распределения другой. В частности, стат.зав-ть проявл.в том, что при изменении одной из величин изменяется среднее значение другой. В этом случае стат.зав-ть нзв корреляционной.

Коэффициент корреляции r

Коэффициентом корреляции rξη сл.вел-н ξ и η нзв отношение корреляционного момента к произведению сред.квадр.отклонений этих вел-н:

или

где

Свойства коэффициента корреляции:

1) для независимых случайных величины ξ и η коэ-нт корреляции равен нулю.

Сл.вел-ны ξ и η нзв некоррелированными, если их коэф-т кор-ции равен 0.

2) коэ-нт корреляции лежит в пределе от -1 до 1

3) если r=1 или r=-1, то величины ξ и η линейно зависимы (прямая или обратная зав-ть соответственно)

 

Мода и медиана. Квантиль

Модой дискретной случайной величины нзв наиболее вероятное ее значение.

Модой непрерывной случайной величины нзв такое значение, при котором плотность ее распределения достигает max. В случае симметрии мат. ожидание совпадает с модой и центром симметрии распределения, при условии что мат ожидание существует, а распределение является модальным. В общем случае мода и мат. ожидание не совпадают.

Медиана (Ме) рассматривается только для непрерывных случайных величин.

Ме случайной величины ξ нзв такое ее значение, относительно которого равновероятно получение большего или меньшего значения сл. величины ξ.

P(ξ<Me)= P(ξ≥Me)

Квантилями уровня p ф-ции распределения Fξ (x) нзв min значение xp, при котором F(x) ≥p.

xp= min{ x: F(x) ≥p } pÎ(0;1)

Квантилью порядка p нзв значение случайной величины xp, левее которого на оси x лежит p-ая часть распределения.

F(x)= P (x<xp)=p

Квантиль порядка 0,5 является медианой.

 

Векторные случайные величины. (2.)Свойства двумерной случайной величины. (3.)Двумерная дискретная случайная величина, её геометрическая интерпретация. (4.)Функция распределения и её свойства. (5.)Матрица распределения. (6.)Двумерная непрерывная случайная величина, её геометрическая интерпретация. (7.)Плотность распределения двумерной случайной величины и её свойства. (8.)Понятие независимости для двумерных случайных величин. (9.)Критерии независимости.

(1.) Кроме одномерных, случайных величин можно рассматривать многомерные, случайные векторы, координаты которых являются одномерными, случайными величинами. Пример:

1) Успеваемость ученика

2)Погода в данное время в данном месте.

Случайная векторная величина принимает каждый раз значения, зависящие от элементарного события. Таким образом, многомерная, случайная величина есть вектор-функция, заданная на пространстве элементарных событий, и каждое ее возможное значение есть вектор.

Будем обозначать через (X, Y) двумерную сл.вел-ну. Каждую из вел-н Х и Y нзв составляющей (компонентой); обе вел-ны Х и Y, рассматриваемые одновременно, образуют систему двух сл.вел-н. Аналогично n-мерную вел-ну можно рассматривать как систему n сл.вел-н. Например, трехмерная вел-на (X, Y, Z) определяет систему трех сл.вел-н X, Y и Z. Целесообразно различать дискретные (составляющие этих вел-н дискретны) и непрерывные (составляющие этих вел-н непрерывны) многомерные сл.вел-ны.

В теоретеко-множественной трактовке любая случайная величина Xi(i=1,2,…n) есть функция элементарных событий ω, входящих в пространство элементарных событий Ω (ωÎΩ).

Поэтому и многомерная случайная величина есть функция элементарных событий ω, т.е. каждому элементарному событию ставится в соответствие несколько действительных чисел х12,…xn, которые приняли случайные величины Х12, …Хn в результате испытания. В этом случае вектор х=(х12,…хn) называется реализацией случайного вектора Х= (Х12, …Хn).

На вероятностном пространстве {Ω,F,P} определены n-мерные сл.вел-ны ξ1=f1(w), ξ2=f2(w), …, ξn=fn(w) (fi(w) измеримы). Вектор (ξ1, ξ2,…, ξn) нзв случ.вектором или n-мерной сл.вел-ной. Обозначим мн-во элемент.событий w {ξ1<x1, ξ2<x2, …, ξn<xn}, для к-рых одноврем.выполняется неравенство f1(w)<x1, f2(w)<x2, …, fn(w)<xn, при этом {ξ1<x1, ξ2<x2, …, ξn<xn}ÎF. Тогда при любом наборе х1, х2,…,xn выполняется равенство F(х1, х2,…,xn)=P{ξ1<x1, ξ2<x2,…, ξn<xn}. Эта ф-ция n-аргументов нзв n-мерной ф-цией распределения сл.вектора (ξ1, ξ2,…, ξn).

Многомерная случайная величина полностью определяется ее функцией распределения вероятностей, удовл. след.условиям:

1. 0£ F(х1, х2,…,xn)£1

2. F(х1, х2,…,xn) не убывает по каждому аргументу

3.

4. где F(xi) – ф-ция распред.одномерной сл.вел-ны ξi.

(2.) Двумерная сл.вел-на (ξ, h) – это совокупность 2-х одномерных сл.вел-н, к-рые принимают значения в рез-те проведения одного и того же опыта. Двумерные сл.вел-ны характеризуются мн-вами значений Ωξ и Ωh своих компонент и совместными (двумерными) законами распределения. В зав-ти от типа компонент ξ и h, различают дискретные, непрерывные и смешанные сл.вел-ны.

(3.) Двумерная случайная величина называется дискретной, если составляющие ее случайные величины являются дискретными. Двумерную сл.вел-ну (ξ, η) геометрически можно изобразить либо как случайную точку М(ξ, h) на плоскости (т.е. как точку со случ.координатами), либо как случ.вектор ОМ.

(4.) Ф-цией распред. Fξη(x, y) двумерной сл.вел-ны (ξ, η) нзв вер-ть совместного выполнения события (ξ<x, η<y), т.е. такая ф-ция F(x, y), к-рая определяет для каждой пары чисел х, у вер-ть того, что ξ примет значение, меньшее х, и при этом η примет значение, меньшее у: Fξη(x, y)=Р(ξ<x, η<y).

Геометрически это можно истолковать так: Fξη(x, y) есть вер-ть того, что случ.точка (ξ, η) попадет в бесконечный квадрант с вершиной (х, у), расположенные левее и ниже этой вершины.

 

Св-ва ф-ции распределения двумерной сл.вел-ны:

1. 0£ Fξη(x, y)£1 Вытекает из опред-я ф-ции рапред.как вер-ти: вер-ть – всегда неотриц.число, не превышающее 1.

2. Fξη(x, +∞)= Fξ(x), т.к. Fξη(x, +∞)=Р(ξ<x, η<+∞)=Р(ξ<x)= Fξ(x)

Fξη(+∞, y)= Fη(y) аналогично

3. Fξη(x, -∞)= Fξη(-∞, у)= Fξη(-∞, -∞)=0. Вытекает из невозможности событий.

Fξη(+∞, +∞)=1. Вытекает из достоверности событий.

4. Fξη(x, y) есть монотонно неубывающая ф-ция по каждому аргументу.

Д-во: Событие, состоящее в том, что составляющая ξ примет значение, меньшее х2, и при этом составляющая η<y, можно подразделить на два несовмест.события: 1) ξ примет значение, меньшее х1, и при этом η<y с вер-тью Р(ξ<x1, η<у); 2) ξ примет значение, удовлетворяющее нер-ву х1£ξ<х2, и при этом η<y с вер-тью Р(х1£ξ<х2, η<y). По теореме сложения, Р(ξ<x2, η<у)= Р(ξ<x1, η<у)+ Р(х1£ξ<х2, η<y). Отсюда Р(ξ<x2, η<у) – Р(ξ<x1, η<у) = Р(х1£ξ<х2, η<y) или Fξη(x2, y) - Fξη(x1, y)= Р(х1£ξ<х2, η<y). Любая вер-ть есть число неотриц., поэтому Fξη(x2, y) - Fξη(x1, y)³0, или Fξη(x2, y)³Fξη(x1, y) ч.т.д. Аналогично доказывается, что Fξη(x, y) неубывающая по аргументу у.

5. Если двумерн.ф-ция распред. Fξη(x, y) непрерывна по х и по у, то вер-ть попадания случ.вел-ны (ξ, η) в прямоугольную область D={х1 £ x £ х2, y1 £ y £y2} равна Р(х1£ξ£х2, у1£ η £у2) = F(x1, y1)+F(x2, y2) – F(x1, y2) – F(x2, y1).

 

(5.) Законом распред.дискретной двумерной сл.вел-ны нзв перечень возможных значений этой вел-ны, т.е пар чисел (xi, yj) и их вероятностей р(xi, yj) (i=1, 2,…,n; j=1, 2,…, m). Обычно закон распределения задают в виде матрицы. Матрица распред.предст.соб.таблицу, к-рая содержит значения {x1, x2,…, xn}, {y1, y2,…, yn} и вероятности возможных пар значений Pij=P(ξ=xi; η=yj) (i=1, 2,…,n; j=1, 2,…, m).

  y1 y2 ym
x1 P11 P12 P1m
x2 P21 P22 P2m
xn Pn1 Pn2 Pnm

Св-ва:

1)

2) ,

3) ,

(6.) Двумер.сл.вел-на (ξ, η) является непрерывной, если ее ф-ция распред.предст.соб. непрерывную дифференцированную ф-цию по каждому из аргументов и существует 2-ая смешанная производная. Пространством ее элементарных событий является плоскость, либо область плоскости, либо область конечной ненулевой плоскости.

(7.) Двумерной плотностью ф-ции распред. fξη(x, y) случ.вел-ны (ξ, η) нзв предел отношения вер-ти попадания случ.точки в элементарный участок плотности, примыкающий к точке (х, у), к площади этого участка, когда его размер стремится к 0.

Т.о. плотностью совместного распределения вер-тей двумерной непрерывной сл.вел-ны нзв вторую смешанную частную производную от ф-ции распред. Геометрически эту ф-цию можно истолковать как поверхность, к-рую нзв поверхностью распределения.

D={х1£ ξ £х2, у1£ η £у2}

Свойства двумерной плотности распределения:

1)

2) Двойной несобственный интеграл с бесконечными пределами от двумерной плотности равен 1.

3)

4)

(8.) Величина ξ независима от величины η,если её закон распределения не зависит от того, какое значение принимает величина η.

Теорема. Для того, чтобы случ.вел-ны ξ и h были независимыми, необходимо и достаточно, чтобы ф-ция распред.системы (ξ, η) была равна произведению ф-ций распределения составляющих

Следствие. Для того, чтобы непрерывные случайные величины ξ и h были независимыми, необходимо и достаточно, чтобы плотность совмест.распред.системы (ξ, η) была равна произведению плотностей распред.составляющих:

(9.) Критерии независимости:

1) для всех х,у

2) Непрерывность

3) Дискретность

для всех х, у

Если хотя бы один из критериев не выполняется в любой одной точке, то величины ξ и η зависимы.

 

Условные распределения двумерной случайной величины. Функция распределения и её свойства. Условная плотность распределения и её свойства. Условные числовые характеристики. Корреляционные зависимости. Нормальный закон распределения двумерной случайной величины.

Случайные величины: ξ xi i=1÷n; η yj j=1÷m.

Условной функцией распределения случайной величины ξ, при условии, что случайная величина η приняла значение yi называется условная вероятность.

Свойства условной ф-ции распределения:

1) Fξ(x|y) – определена для всех х

2) Fξ(x|y) Î [0,1] для всех х Î R

3) Fξ(-∞|y)=0

4) Fξ(+∞|y)=1

5) Сумма вероятностей распределения равна 1.

Имеем yi:

Имеем xi:

Используют для контрольного вычисления.

Условная плотность распределения и её свойства

Условной плотностью распределения fξ(x/y) непрерывной случайной величины ξ при фиксированном значении η=у называется отношение плтности совместного распределения fξη(x/y) случайной величины (ξ,η) к плотности распределения случайной величины ξ.

Свойства:

1) fξ(x/y)≥0

2)

fξ(x/y) – непрерывная функция

3)

4) ξ и η – независимы

5)

Условные числовые характеристики

Условным мат ожиданием случайной величины ξ называют её мат ожидание, вычисленное при условии, что случайная величина η приняла значение у.

Условное мат ожидание M[ξ|y] случайной величины ξ как функция параметра у называется регрессией ξ на у

Смешанный начальный момента порядка K+S равен мат ожиданию

Смешанные центральный момент K+S равен мат ожиданию произведения центрированных величин

Следствия:

Корреляционные зависимости

Корреляционным моментом (kξη) случайных величин ξ и η называют мат ожидание произведения отклонения этих величин от их мат ожидания:

Характеризует степень тесноты линейных величин ξ и η и их рассеивание их значений относительно точки

Свойства:

1) kξη = kηξ

2) Корреляционный момент двух независимых случайных величин ξ и η равен 0.

3)Абсолютная величина корреляционного момента двух случайных величин ξ и η не превышает среднего геометрического их дисперсий:

 

Если kξη<0, то между ξ и η существует отрицательная корреляционная зависимость(если одно значение растет, то другое значение уменьшается).

Если kξη >0, то между ξ и η существует положительная корреляционная зависимость(если одно значение растет, то и другое значение растет).

 

Коэффициент корреляции (rξη) случайных величин ξ и η называется отношение корреляционного момента к произведению среднего квадратических отклонений этих величин:

-1≤ rξη ≤1

Две случайные величины ξ и η называются коррелированными, если их корреляционный момент отличен от нуля.

Соответственно, ξ и η называются некоррелированными, если их корреляционный момент равен нулю.

 

rξη=1; ξ и η; η=аξ+b

 

Нормальный закон распределения двумерной случайной величины

Непрерывная двумерная случайная величина (ξ,η) имеет нормальное распределение, если её плотность вероятности равна:

Параметрами нормального закона распределения являются:

Если случайные величины распределены нормально, но они некоррелированны, то rξη=0, и получим:

Таким образом, если составляющие нормального распределенной случайной величины некоррелированны, то плотность совместного распределения системы равна произведению плотностей распределения составляющих.

 

16. Многомерные случайные величины.Основные характеристики (Ф-я распределения, плотность распр-я, понятие независимости). Основные числовые характеристики (мат.ожидание, дисперсия, корреляционная матрица, коэф-т корреляции, нормированная корреляционная матрица).

Опр. Совокупность произвольного числа n одномерных случ. вел-н , кот. принимают значения одного и того же опыта наз. n-мерной случ. величиной: .

Опр. Ф-я распределения n-мерной случ. величины наз. вероятность выполнения n-неравенств вида:

Опр. Плотность распред-я n-мерной случ. величины наз. смешанная частная производная функции распределения F(х12,…,хn), взятая один раз по каждому аргументу. .

Св-ва плотности рапр-я:

1. f(x1,x2,…,xn)³ 0

2.

3. Плотности распределения меньшего порядка могут быть получены путем интегрирования n-мерной плотности распр-я по ненужным переменным.

4. Вер-ть попадания многомер.случ.величины в n-мерную область D=n-кратному интегралу по этой области.

Опр. Случайные величины наз. независимыми, если закон распред. каждой частной системы, выделенной из системы не зависит от того, какие значения приняли остальные величины.

f(x1,x2,…,xn)=f1(x1)f2(x2)…fn(xn)

 

Основные числовые характеристики.

1. Вектор мат. ожидания.

M=(m1,m2,…,mn)

2. Вектор дисперсии.

D=(D1,D2,…,Dn)

3. Корреляционная матрица.

где kij=kji - т.е. матрица симметрична.

Замечание: случ. величины – будут некоррелированные,если их недиагональные элементы корреляц-ой матрицы=0.

4. Коэф-т корреляции.

5. Корреляционная нормированная матрица

Rij=Rji

Случ. величины - независимы, если , где F – ф-ция распред.случ величины.

! Если случ. величины независимы, то они некоррелируемы, НО обратное утверждение НЕВЕРНО!

 

Коэффициентом корреляции (rξη) случ вел ξ и η наз.отношение корреляц.момента к произведению среднеквадратич.отклонений этих величин

-1≤ rξη ≤1

 

Основные задачи математической статистики. Генеральная и выборочная совокупность. Повторная и бесповторная выборка. Репрезентативность выборки. Теоретическая ФР. Статистическое распределение выборки. Эмпирическая функция распределения. Гистограмма, полигон относительных частот. Статистические оценки параметров распределения (выборочная, средняя, групповая и общая средняя, выборочная дисперсия). Формула для вычисления дисперсии.

Статистика разрабатывает методы сбора данных и группировки по умолчанию. Задачи мат стат.: 1) указать способы сбора и группировки стат. сведений, полученных в рез-те наблюдения за случ. процессами; 2) разработка методов анализа стат. данных в зависимости от цели исследования.

Генеральная и выборочная совокупность:

Генеральной совокупностью опыта наз. множ-во объектов, из к-ых производится выборка. Выборочной совокупностью или просто выборкой наз. совокупность случайно отобранных объектов.

1, х2, …, хn} n-объём выборки

Объёмом совокупности (выборочной или генеральной) наз. число объектов этой совокупности.

Повторная и бесповторная выборка. Репрезентативность выборки. Теоретическая ФР.

Повторной наз.выборку, при к-ой отобранный объект (перед отбором следующего) возвращается в генеральную совокупность. Бесповторной наз.выборку, при к-ой отобранный объект в генеральную совокупность не возвращается. Выборка будет репрезентативной, если её осуществлять случайно, то есть каждый из объектов генеральной совокупности имеет одинаковую вероятность попасть в выборку.

k-кол-во выборок, которые можно сделать

n-объём выборки

x:

…………………

Пусть x®Fξ(x) – функция распределения, тогда каждую из следующих выборок:

, …..

можно рассмотреть как реализацию n-мерной случайной величины (ξ1, ξ2,…, ξn) Для всех ξi закон распределения единственный. Все компоненты (ξi) – независимы.

Тогда F(х12,…,хn)=F(x1)F(x2)…F(xn)

Вариационным рядом наз.выборка полученная в рез-те расположения значений исходной выборки в порядке возрастания.

наз. вариантами.

В отличие от эмпирической функции распределения выборки функцию распределения F(x) генеральной совокупности наз. теоретической функцией распределения. Различие между эмпирической и теоретической функциями состоит в том,что теоретическая функция F(x) определяет вер-сть события X<x, а эмпирическая функция F*(x)=nx/n определяет относительную частоту этого же события.

Статистическое распределение выборки:

x1 наблюдается n1 раз

x2 – n2

xk – nk

xi x1 x2 …… xk
P*i n1 n2 …… nk

 

ni - частота

-относительная частота

Замечание: В теории вероятности под распределениями понимают соответствие между возможными значениями случ.величины и их вер-тями. А в мат.статистике – соответствие между наблюдаемыми вариантами и их частотами.

Эмпирическая функция распределения:

nx-число наблюдений, при которых наблюдалось значение признака варианты меньше, чем х

n-общее число наблюдений (объём выборки)

x<x

-частота события, когда x<x

Эмперической функцией распределения случ.величины x наз.функцию F*ξ(x), определяющую для каждого значения x относительную частоту событий:

Недостатки:

Невысокая наглядность (визуально сложно определить закон распределения сл.величины x)

Гистограмма и полигон относит.частот:

Полигоном частот наз.ломаную, отрезки к-ой соединяют xi и ni.

Площадь гистограммы частот =сумме всех частот, то есть объёму выборки.

Статистическая проверка гипотез. Основные понятия. Статистический критерий, ошибки 1-го и 2-го родов, уровень значимости и мощность критерия. Критерий согласия Пирсона. Проверка гипотезы о значении параметров нормального распределения. Проверка гипотезы о законе распределения случайной величины.

Статистическая проверка гипотез. Основные понятия. Уровень значимости и мощности критерия

Статистической гипотезой наз всякое непротиворечивое множество утверждений относительно закона распределения случайной величины.

Статистикой нзв произвольная функция Z = φ (Zn) выборки Zn, для значений к-рой известны условные плотности распределения f (z | H 0) и f (z | H 1) относительно проверяемой гипотезы H 0 и конкурирующей с ней альтернативной гипотезы H 1. Из опред следует, что Z есть СВ. Практическое применение мат. статистики состоит в проверке соответствия результатов экспериментов предполагаемой гипотезе. С этой целью строится процедура (правило) проверки гипотезы. Критерием согласия называется правило, в соответствии с которым по реализации статистики Z, вычисленной на основании апостериорной выборки zn, гипотеза H 0 принимается или отвергается. Критической областью G называется область реализаций z статистики Z, при которых гипотеза H 0 отвергается. Доверительной областью G называется область значений z статистики Z, при которых гипотеза H 0 принимается. Уровнем значимости α критерия согласия называется вероятность события, стоящего в том, что гипотеза H 0 отвергается, когда она верна, т.е.

α =P{ZÎG|H0}

где вероятность P соответствует условной плотности распределения f (z | H 0). Мощностью γ критерия согласия называется вероятность события, состоящего в том, что гипотеза H 0 отвергается, когда она неверна, т.е.

γ=P{ZÎG|H1}

где вероятность P соответствует условной плотности f (z | H 1). Критической точкой zβ называется точка на оси Oz, являющаяся квантилем уровня

β=1 – α

распределения F (z | H 0), соответствующего плотности распределения f (z | H 0). На рис. показана графическая интерпретация введенных понятий, где β + α = 1, δ + γ = 1.

 

Статистический критерий, ошибки 1-го и 2-го родов

Ошибка 1-го рода состоит в отклонении гипотезы, если она верна (пропуск цели).

Вер



Поделиться:


Последнее изменение этой страницы: 2016-09-19; просмотров: 290; Нарушение авторского права страницы; Мы поможем в написании вашей работы!

infopedia.su Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав. Обратная связь - 3.138.34.52 (0.011 с.)