Заглавная страница Избранные статьи Случайная статья Познавательные статьи Новые добавления Обратная связь FAQ Написать работу КАТЕГОРИИ: АрхеологияБиология Генетика География Информатика История Логика Маркетинг Математика Менеджмент Механика Педагогика Религия Социология Технологии Физика Философия Финансы Химия Экология ТОП 10 на сайте Приготовление дезинфицирующих растворов различной концентрацииТехника нижней прямой подачи мяча. Франко-прусская война (причины и последствия) Организация работы процедурного кабинета Смысловое и механическое запоминание, их место и роль в усвоении знаний Коммуникативные барьеры и пути их преодоления Обработка изделий медицинского назначения многократного применения Образцы текста публицистического стиля Четыре типа изменения баланса Задачи с ответами для Всероссийской олимпиады по праву Мы поможем в написании ваших работ! ЗНАЕТЕ ЛИ ВЫ?
Влияние общества на человека
Приготовление дезинфицирующих растворов различной концентрации Практические работы по географии для 6 класса Организация работы процедурного кабинета Изменения в неживой природе осенью Уборка процедурного кабинета Сольфеджио. Все правила по сольфеджио Балочные системы. Определение реакций опор и моментов защемления |
Опыт с равновероятностными исходами. Вероятность и частота. Некоторые комбинаторные формулы.↑ Стр 1 из 4Следующая ⇒ Содержание книги
Поиск на нашем сайте
Аксиоматическое определение вероятности (по Колмогорову). Свойства вероятности. Свойства вероятности для полной группы событий. Пусть F – подмножество элементарных событий. Мн-во R нзв алгеброй множеств, если выполн.след.требования: 1) алгебра мн-в содерж.достоверные события: ΩÎF, ØÎF 2) F содерж.как само событие, так и противоположное ему: если АÎF, то ĀÎF 3) С любыми 2-мя событиями алгебра содержит их объединение и пересечение: АÎF, BÎF => AÈBÎF, AÇBÎF 4) Для конечного набора событий алгебра содержит их объединение и пересечение: An – конечный набор событий , Если все 4 усл-я выполн., то F нзв s-алгеброй. Элементы мн-ва F нзв случайными событиями. Вероятностным пространством принято называть тройку символов: (Ω, F, P). F (s-алгебра подмн-ва Ω) нзв случ.событиями. Р(А) – вероятность, опред.на s-алгебре. Аксиоматическое определение вероятности: Вероятностью соб.А нзв ф-ция Р(А), определенная на s-алгебре F, удовлетв. след. аксиомам вер-ти: 1. Р(А) ≥ 0; неотрицательность Каждому соб.А ÎF ставится в соответствие неотрицательное число Р(А), называемое его вер-тью. 2. Р(Ω) = 1, Ω - достоверное событие; Вер-ть достовер.события равна 1. 3. Для любых попарно несовмест.событий А1, А2…An справедливо след.рав-во: Р(A1+A2+…An)=P(A1)+P(A2)+…+P(An) 4. Если послед-ть А1, А2…An такова, что каждое последующее ведет за собой предыдущее, и произведение событий есть невозможное событие, имеет место рав-во:
Осн.св-ва вероятности: Если вер-ть соб.А Р(А)=1, но соб. А¹Ω, то говорят, что соб А в опыте G происходит почти наверное. Если вер-ть соб.А Р(А)=0, но соб. А¹Ø, то говорят, что соб А в опыте G почти никогда не происходит. Ω=Ø+Ω По аксиоме 3: Р(Ω)=Р(Ø)+Р(Ω) 1) Вер-ть невозможного соб.равна 0 Р(Ø) = 0 2) Если вер-ть соб. Р(А)=1, то отсюда не следует, что соб.А явл.достоверным 3) Если вер-ть соб. Р(А)=0, то отсюда не следует, что соб.А явл.невозможным 4) Если соб.А влечет за собой соб.В, то АÌВ => P(A)£P(B) Док-во: Если вер-ть монотонна, то Р(А)=Р(В). В=А+В\А; А(В\А)=Ø т.к. А и В\А несовместны. По аксиоме 1 и 3 Р(В)=Р(А)+Р(В\А)³Р(А)
5) Каково бы ни было случ.соб. А, его вер-ть неотрицательна и не больше 1. 0£Р(А)£1 Док-во: АÌΩ. По св-ву 4: Р(А)£Р(Ω)=1. По св-ву 1: 0£Р(А) 6) Вер-ть суммы 2-х произвольных событий А и В Î F выражается формулой: Р(А+В)=Р(А)+Р(В)-Р(АВ) Док-во: А+В=А+(В-АВ) В=АВ+(В-АВ) По аксиоме 3: Р(А+В)=Р(А)-Р(В-АВ) Р(В)=Р(АВ)+Р(В-АВ) => Р(А+В)=Р(А)+Р(В)-Р(АВ) 7) Р(А+В)£Р(А)+Р(В) (по св-ву 6, Р(АВ)³0) 8) Если соб. А1, А2…An несовмест., тогда нерав-во переходит в рав-во Вер-ть суммы нескольких несовмест.соб.равна сумме их вер-тей. 9) Если А и В ÎF и АВ=Ø, то Р(С(А+В))=Р(СА)+Р(СВ) Док-во: (СА)(СВ)=Ø, т.к. АВ=Ø С(А+В)=СА+СВ => (по аксиоме 3) Р(С(А+В))=Р(СА+СВ)=Р(СА)+Р(СВ)
Св-ва вероятности для полной группы событий Соб. Н1, Н2…Нn в некоем опыте G образ.полную группу несовмест.событий, если они попарно несовместны и в рез-те опыта произойдет хотя бы одно из событий Нi. Н1+Н2+…+Нn =Ω При этом соб. Н1, Н2…Нn, к-рые имеют положит.вер-ть, нзв гипотезами. 10) Если соб. Н1, Н2…Нn образ.полную группу, то Р(Н1)+Р(Н2)+…+Р(Нn) =Р(Н1+Н2+…+Нn)=1 11) Для любого соб.А вер-ть противоположного соб.Ā определяется по формуле: Р(Ā)=1-Р(А) Док-во: Ā= Ω/А, А*Ā= Ø – несовмест., А+Ā= Ω Р(А+Ā)=1; по аскиоме 3: Р(А+Ā)=Р(А)+Р(Ā)=1 => Р(Ā)=1- Р(А)
Математическое ожидание случайной величины и его свойства. Начальные и центральные моменты случайной величины. Условное математическое ожидание. Дисперсия случайной величины и её свойства. Связь различных случайных величин. Коэффициент корреляции и его свойства Матожидание: Опр: мат.ожиданием (или средним значением случайной величины ξ) нзв величина M[ξ], к-рая опред след образом: Пример дискретной величины: Кубик: N=6 {1,2,3,4,5,6} M[ξ]=1/6(1+3+3+4+5+6)=3,5 => Вероятнее всего, выпадет 3 или 4. Пример непрерывной величины: ξ - точка координат, брошенная на удачу на отрезок [a;b] Св-ва мат.ожидания: 1) мат. ожид. постоянной равно ей самой M[c]=c, c=const. M[1]=1 2) постоянную величину можно вынести за знак мат. ожидания M[c+ξ]=M[ξ]+c M[c*ξ]=cM[ξ] 3) мат.ожидание суммы любых случ-ых величин равно сумме их математических ожиданий, если эти мат.ожидания существуют. "ξ, η M[ξ+η]=M[ξ]+M[η] 4) мат. ожидание произведения независимых случайных величин равно произведению их мат.ожиданий ξ, η – независ. M[ξ×η]=M[ξ]×M[η] 5) если ξ£η при всех элемент.исходах, то их мат.ожидания сохраняют соотношение: M[ξ]£M[η]. Начальные и центральные моменты случайной величины: Опр: начальным моментом k-ого порядка случайной величины ξ нзв. мат.ожидание k-ой степени этой случайной величины Опр: центральным моментом k-ого порядка случайной величины ξ нзв мат.ожидание k-ой степени центрированной случайной величины Центрированной сл.вел-ной нзв разность м/у сл.вел-ной ξ и ее мат. ожиданием. Условное математическое ожидание: Если условная ф-ция распределения случ. величины ξ: Fξ(x|A), то в этом случае можно рассчитать усл.мат. ожид. по формуле: где Ai – полная группа несовмест.событий, - ф-ции распред. ξ. M[ξ|A] нзв услов.мат.ожид.сл.вел-ны относительно события А. Дисперсия случайной величины: Опр: дисперсией случ.величины ξ нзв. мат.ожидание квадрата отклонения случ.величины ξ от её мат.ожидания. Дисперсия характеризует степень рассеивания реализации случайной величины около её мат.ожидания. Св-ва дисперсии 1) дисперсия постоянной величины равно нулю D[c]=0, с=const 2) 3) Дисперсия суммы любых случайных величин равна сумме дисперсий этих величин (если эти дисперсии существуют) 4) если дисперсия случ. величны ξ равна нулю, то ξ равна постоянной с вероятностью, равной единице: если D[ξ]=0, то ξ = Const с вероятностью р =1 5) дисперсию можно посчитать по формуле: Связь различных сл.вел-н. Две сл. вел-ны могут быть связаны либо функциональной зависимостью, либо зависимостью другого рода, называемой статистической, либо быть независимыми. Строгая функ-ная зав-ть реализуется редко, т.к. обе величины или одна из них подвержены еще действию случ.факторов, причем среди них могут быть и общие для обеих величин. В этом случае возникает статистическая зависимость. Стат-кой нзв зав-ть, при к-рой изменение одной из величин влечет изменение распределения другой. В частности, стат.зав-ть проявл.в том, что при изменении одной из величин изменяется среднее значение другой. В этом случае стат.зав-ть нзв корреляционной. Коэффициент корреляции r Коэффициентом корреляции rξη сл.вел-н ξ и η нзв отношение корреляционного момента к произведению сред.квадр.отклонений этих вел-н: или где Свойства коэффициента корреляции: 1) для независимых случайных величины ξ и η коэ-нт корреляции равен нулю. Сл.вел-ны ξ и η нзв некоррелированными, если их коэф-т кор-ции равен 0. 2) коэ-нт корреляции лежит в пределе от -1 до 1 3) если r=1 или r=-1, то величины ξ и η линейно зависимы (прямая или обратная зав-ть соответственно)
Мода и медиана. Квантиль Модой дискретной случайной величины нзв наиболее вероятное ее значение. Модой непрерывной случайной величины нзв такое значение, при котором плотность ее распределения достигает max. В случае симметрии мат. ожидание совпадает с модой и центром симметрии распределения, при условии что мат ожидание существует, а распределение является модальным. В общем случае мода и мат. ожидание не совпадают. Медиана (Ме) рассматривается только для непрерывных случайных величин. Ме случайной величины ξ нзв такое ее значение, относительно которого равновероятно получение большего или меньшего значения сл. величины ξ. P(ξ<Me)= P(ξ≥Me) Квантилями уровня p ф-ции распределения Fξ (x) нзв min значение xp, при котором F(x) ≥p. xp= min{ x: F(x) ≥p } pÎ(0;1) Квантилью порядка p нзв значение случайной величины xp, левее которого на оси x лежит p-ая часть распределения. F(x)= P (x<xp)=p Квантиль порядка 0,5 является медианой.
Векторные случайные величины. (2.)Свойства двумерной случайной величины. (3.)Двумерная дискретная случайная величина, её геометрическая интерпретация. (4.)Функция распределения и её свойства. (5.)Матрица распределения. (6.)Двумерная непрерывная случайная величина, её геометрическая интерпретация. (7.)Плотность распределения двумерной случайной величины и её свойства. (8.)Понятие независимости для двумерных случайных величин. (9.)Критерии независимости. (1.) Кроме одномерных, случайных величин можно рассматривать многомерные, случайные векторы, координаты которых являются одномерными, случайными величинами. Пример: 1) Успеваемость ученика 2)Погода в данное время в данном месте. Случайная векторная величина принимает каждый раз значения, зависящие от элементарного события. Таким образом, многомерная, случайная величина есть вектор-функция, заданная на пространстве элементарных событий, и каждое ее возможное значение есть вектор. Будем обозначать через (X, Y) двумерную сл.вел-ну. Каждую из вел-н Х и Y нзв составляющей (компонентой); обе вел-ны Х и Y, рассматриваемые одновременно, образуют систему двух сл.вел-н. Аналогично n-мерную вел-ну можно рассматривать как систему n сл.вел-н. Например, трехмерная вел-на (X, Y, Z) определяет систему трех сл.вел-н X, Y и Z. Целесообразно различать дискретные (составляющие этих вел-н дискретны) и непрерывные (составляющие этих вел-н непрерывны) многомерные сл.вел-ны. В теоретеко-множественной трактовке любая случайная величина Xi(i=1,2,…n) есть функция элементарных событий ω, входящих в пространство элементарных событий Ω (ωÎΩ). Поэтому и многомерная случайная величина есть функция элементарных событий ω, т.е. каждому элементарному событию ставится в соответствие несколько действительных чисел х1,х2,…xn, которые приняли случайные величины Х1,Х2, …Хn в результате испытания. В этом случае вектор х=(х1,х2,…хn) называется реализацией случайного вектора Х= (Х1,Х2, …Хn). На вероятностном пространстве {Ω,F,P} определены n-мерные сл.вел-ны ξ1=f1(w), ξ2=f2(w), …, ξn=fn(w) (fi(w) измеримы). Вектор (ξ1, ξ2,…, ξn) нзв случ.вектором или n-мерной сл.вел-ной. Обозначим мн-во элемент.событий w {ξ1<x1, ξ2<x2, …, ξn<xn}, для к-рых одноврем.выполняется неравенство f1(w)<x1, f2(w)<x2, …, fn(w)<xn, при этом {ξ1<x1, ξ2<x2, …, ξn<xn}ÎF. Тогда при любом наборе х1, х2,…,xn выполняется равенство F(х1, х2,…,xn)=P{ξ1<x1, ξ2<x2,…, ξn<xn}. Эта ф-ция n-аргументов нзв n-мерной ф-цией распределения сл.вектора (ξ1, ξ2,…, ξn). Многомерная случайная величина полностью определяется ее функцией распределения вероятностей, удовл. след.условиям: 1. 0£ F(х1, х2,…,xn)£1 2. F(х1, х2,…,xn) не убывает по каждому аргументу 3. 4. где F(xi) – ф-ция распред.одномерной сл.вел-ны ξi. (2.) Двумерная сл.вел-на (ξ, h) – это совокупность 2-х одномерных сл.вел-н, к-рые принимают значения в рез-те проведения одного и того же опыта. Двумерные сл.вел-ны характеризуются мн-вами значений Ωξ и Ωh своих компонент и совместными (двумерными) законами распределения. В зав-ти от типа компонент ξ и h, различают дискретные, непрерывные и смешанные сл.вел-ны. (3.) Двумерная случайная величина называется дискретной, если составляющие ее случайные величины являются дискретными. Двумерную сл.вел-ну (ξ, η) геометрически можно изобразить либо как случайную точку М(ξ, h) на плоскости (т.е. как точку со случ.координатами), либо как случ.вектор ОМ.
(4.) Ф-цией распред. Fξη(x, y) двумерной сл.вел-ны (ξ, η) нзв вер-ть совместного выполнения события (ξ<x, η<y), т.е. такая ф-ция F(x, y), к-рая определяет для каждой пары чисел х, у вер-ть того, что ξ примет значение, меньшее х, и при этом η примет значение, меньшее у: Fξη(x, y)=Р(ξ<x, η<y). Геометрически это можно истолковать так: Fξη(x, y) есть вер-ть того, что случ.точка (ξ, η) попадет в бесконечный квадрант с вершиной (х, у), расположенные левее и ниже этой вершины.
Св-ва ф-ции распределения двумерной сл.вел-ны: 1. 0£ Fξη(x, y)£1 Вытекает из опред-я ф-ции рапред.как вер-ти: вер-ть – всегда неотриц.число, не превышающее 1. 2. Fξη(x, +∞)= Fξ(x), т.к. Fξη(x, +∞)=Р(ξ<x, η<+∞)=Р(ξ<x)= Fξ(x) Fξη(+∞, y)= Fη(y) аналогично 3. Fξη(x, -∞)= Fξη(-∞, у)= Fξη(-∞, -∞)=0. Вытекает из невозможности событий. Fξη(+∞, +∞)=1. Вытекает из достоверности событий. 4. Fξη(x, y) есть монотонно неубывающая ф-ция по каждому аргументу. Д-во: Событие, состоящее в том, что составляющая ξ примет значение, меньшее х2, и при этом составляющая η<y, можно подразделить на два несовмест.события: 1) ξ примет значение, меньшее х1, и при этом η<y с вер-тью Р(ξ<x1, η<у); 2) ξ примет значение, удовлетворяющее нер-ву х1£ξ<х2, и при этом η<y с вер-тью Р(х1£ξ<х2, η<y). По теореме сложения, Р(ξ<x2, η<у)= Р(ξ<x1, η<у)+ Р(х1£ξ<х2, η<y). Отсюда Р(ξ<x2, η<у) – Р(ξ<x1, η<у) = Р(х1£ξ<х2, η<y) или Fξη(x2, y) - Fξη(x1, y)= Р(х1£ξ<х2, η<y). Любая вер-ть есть число неотриц., поэтому Fξη(x2, y) - Fξη(x1, y)³0, или Fξη(x2, y)³Fξη(x1, y) ч.т.д. Аналогично доказывается, что Fξη(x, y) неубывающая по аргументу у. 5. Если двумерн.ф-ция распред. Fξη(x, y) непрерывна по х и по у, то вер-ть попадания случ.вел-ны (ξ, η) в прямоугольную область D={х1 £ x £ х2, y1 £ y £y2} равна Р(х1£ξ£х2, у1£ η £у2) = F(x1, y1)+F(x2, y2) – F(x1, y2) – F(x2, y1).
(5.) Законом распред.дискретной двумерной сл.вел-ны нзв перечень возможных значений этой вел-ны, т.е пар чисел (xi, yj) и их вероятностей р(xi, yj) (i=1, 2,…,n; j=1, 2,…, m). Обычно закон распределения задают в виде матрицы. Матрица распред.предст.соб.таблицу, к-рая содержит значения {x1, x2,…, xn}, {y1, y2,…, yn} и вероятности возможных пар значений Pij=P(ξ=xi; η=yj) (i=1, 2,…,n; j=1, 2,…, m).
Св-ва: 1) 2) , 3) , (6.) Двумер.сл.вел-на (ξ, η) является непрерывной, если ее ф-ция распред.предст.соб. непрерывную дифференцированную ф-цию по каждому из аргументов и существует 2-ая смешанная производная. Пространством ее элементарных событий является плоскость, либо область плоскости, либо область конечной ненулевой плоскости. (7.) Двумерной плотностью ф-ции распред. fξη(x, y) случ.вел-ны (ξ, η) нзв предел отношения вер-ти попадания случ.точки в элементарный участок плотности, примыкающий к точке (х, у), к площади этого участка, когда его размер стремится к 0. Т.о. плотностью совместного распределения вер-тей двумерной непрерывной сл.вел-ны нзв вторую смешанную частную производную от ф-ции распред. Геометрически эту ф-цию можно истолковать как поверхность, к-рую нзв поверхностью распределения. D={х1£ ξ £х2, у1£ η £у2} Свойства двумерной плотности распределения: 1) 2) Двойной несобственный интеграл с бесконечными пределами от двумерной плотности равен 1. 3) 4) (8.) Величина ξ независима от величины η,если её закон распределения не зависит от того, какое значение принимает величина η. Теорема. Для того, чтобы случ.вел-ны ξ и h были независимыми, необходимо и достаточно, чтобы ф-ция распред.системы (ξ, η) была равна произведению ф-ций распределения составляющих Следствие. Для того, чтобы непрерывные случайные величины ξ и h были независимыми, необходимо и достаточно, чтобы плотность совмест.распред.системы (ξ, η) была равна произведению плотностей распред.составляющих: (9.) Критерии независимости: 1) для всех х,у 2) Непрерывность 3) Дискретность для всех х, у Если хотя бы один из критериев не выполняется в любой одной точке, то величины ξ и η зависимы.
Условные распределения двумерной случайной величины. Функция распределения и её свойства. Условная плотность распределения и её свойства. Условные числовые характеристики. Корреляционные зависимости. Нормальный закон распределения двумерной случайной величины. Случайные величины: ξ xi i=1÷n; η yj j=1÷m. Условной функцией распределения случайной величины ξ, при условии, что случайная величина η приняла значение yi называется условная вероятность. Свойства условной ф-ции распределения: 1) Fξ(x|y) – определена для всех х 2) Fξ(x|y) Î [0,1] для всех х Î R 3) Fξ(-∞|y)=0 4) Fξ(+∞|y)=1 5) Сумма вероятностей распределения равна 1. Имеем yi: Имеем xi: Используют для контрольного вычисления. Условная плотность распределения и её свойства Условной плотностью распределения fξ(x/y) непрерывной случайной величины ξ при фиксированном значении η=у называется отношение плтности совместного распределения fξη(x/y) случайной величины (ξ,η) к плотности распределения случайной величины ξ. Свойства: 1) fξ(x/y)≥0 2) fξ(x/y) – непрерывная функция 3) 4) ξ и η – независимы 5) Условные числовые характеристики Условным мат ожиданием случайной величины ξ называют её мат ожидание, вычисленное при условии, что случайная величина η приняла значение у. Условное мат ожидание M[ξ|y] случайной величины ξ как функция параметра у называется регрессией ξ на у Смешанный начальный момента порядка K+S равен мат ожиданию Смешанные центральный момент K+S равен мат ожиданию произведения центрированных величин Следствия:
Корреляционные зависимости Корреляционным моментом (kξη) случайных величин ξ и η называют мат ожидание произведения отклонения этих величин от их мат ожидания: Характеризует степень тесноты линейных величин ξ и η и их рассеивание их значений относительно точки Свойства: 1) kξη = kηξ 2) Корреляционный момент двух независимых случайных величин ξ и η равен 0. 3)Абсолютная величина корреляционного момента двух случайных величин ξ и η не превышает среднего геометрического их дисперсий:
Если kξη<0, то между ξ и η существует отрицательная корреляционная зависимость(если одно значение растет, то другое значение уменьшается). Если kξη >0, то между ξ и η существует положительная корреляционная зависимость(если одно значение растет, то и другое значение растет).
Коэффициент корреляции (rξη) случайных величин ξ и η называется отношение корреляционного момента к произведению среднего квадратических отклонений этих величин: -1≤ rξη ≤1 Две случайные величины ξ и η называются коррелированными, если их корреляционный момент отличен от нуля. Соответственно, ξ и η называются некоррелированными, если их корреляционный момент равен нулю.
rξη=1; ξ и η; η=аξ+b
Нормальный закон распределения двумерной случайной величины Непрерывная двумерная случайная величина (ξ,η) имеет нормальное распределение, если её плотность вероятности равна: Параметрами нормального закона распределения являются: Если случайные величины распределены нормально, но они некоррелированны, то rξη=0, и получим: Таким образом, если составляющие нормального распределенной случайной величины некоррелированны, то плотность совместного распределения системы равна произведению плотностей распределения составляющих.
16. Многомерные случайные величины.Основные характеристики (Ф-я распределения, плотность распр-я, понятие независимости). Основные числовые характеристики (мат.ожидание, дисперсия, корреляционная матрица, коэф-т корреляции, нормированная корреляционная матрица). Опр. Совокупность произвольного числа n одномерных случ. вел-н , кот. принимают значения одного и того же опыта наз. n-мерной случ. величиной: . Опр. Ф-я распределения n-мерной случ. величины наз. вероятность выполнения n-неравенств вида:
Опр. Плотность распред-я n-мерной случ. величины наз. смешанная частная производная функции распределения F(х1,х2,…,хn), взятая один раз по каждому аргументу. . Св-ва плотности рапр-я: 1. f(x1,x2,…,xn)³ 0 2. 3. Плотности распределения меньшего порядка могут быть получены путем интегрирования n-мерной плотности распр-я по ненужным переменным.
4. Вер-ть попадания многомер.случ.величины в n-мерную область D=n-кратному интегралу по этой области. Опр. Случайные величины наз. независимыми, если закон распред. каждой частной системы, выделенной из системы не зависит от того, какие значения приняли остальные величины. f(x1,x2,…,xn)=f1(x1)f2(x2)…fn(xn)
Основные числовые характеристики. 1. Вектор мат. ожидания. M=(m1,m2,…,mn) 2. Вектор дисперсии. D=(D1,D2,…,Dn) 3. Корреляционная матрица. где kij=kji - т.е. матрица симметрична. Замечание: случ. величины – будут некоррелированные,если их недиагональные элементы корреляц-ой матрицы=0. 4. Коэф-т корреляции. 5. Корреляционная нормированная матрица Rij=Rji Случ. величины - независимы, если , где F – ф-ция распред.случ величины. ! Если случ. величины независимы, то они некоррелируемы, НО обратное утверждение НЕВЕРНО!
Коэффициентом корреляции (rξη) случ вел ξ и η наз.отношение корреляц.момента к произведению среднеквадратич.отклонений этих величин -1≤ rξη ≤1
Основные задачи математической статистики. Генеральная и выборочная совокупность. Повторная и бесповторная выборка. Репрезентативность выборки. Теоретическая ФР. Статистическое распределение выборки. Эмпирическая функция распределения. Гистограмма, полигон относительных частот. Статистические оценки параметров распределения (выборочная, средняя, групповая и общая средняя, выборочная дисперсия). Формула для вычисления дисперсии. Статистика разрабатывает методы сбора данных и группировки по умолчанию. Задачи мат стат.: 1) указать способы сбора и группировки стат. сведений, полученных в рез-те наблюдения за случ. процессами; 2) разработка методов анализа стат. данных в зависимости от цели исследования. Генеральная и выборочная совокупность: Генеральной совокупностью опыта наз. множ-во объектов, из к-ых производится выборка. Выборочной совокупностью или просто выборкой наз. совокупность случайно отобранных объектов. {х1, х2, …, хn} n-объём выборки Объёмом совокупности (выборочной или генеральной) наз. число объектов этой совокупности. Повторная и бесповторная выборка. Репрезентативность выборки. Теоретическая ФР. Повторной наз.выборку, при к-ой отобранный объект (перед отбором следующего) возвращается в генеральную совокупность. Бесповторной наз.выборку, при к-ой отобранный объект в генеральную совокупность не возвращается. Выборка будет репрезентативной, если её осуществлять случайно, то есть каждый из объектов генеральной совокупности имеет одинаковую вероятность попасть в выборку. k-кол-во выборок, которые можно сделать n-объём выборки x: ………………… Пусть x®Fξ(x) – функция распределения, тогда каждую из следующих выборок: , ….. можно рассмотреть как реализацию n-мерной случайной величины (ξ1, ξ2,…, ξn) Для всех ξi закон распределения единственный. Все компоненты (ξi) – независимы. Тогда F(х1,х2,…,хn)=F(x1)F(x2)…F(xn) Вариационным рядом наз.выборка полученная в рез-те расположения значений исходной выборки в порядке возрастания. наз. вариантами. В отличие от эмпирической функции распределения выборки функцию распределения F(x) генеральной совокупности наз. теоретической функцией распределения. Различие между эмпирической и теоретической функциями состоит в том,что теоретическая функция F(x) определяет вер-сть события X<x, а эмпирическая функция F*(x)=nx/n определяет относительную частоту этого же события. Статистическое распределение выборки: x1 – наблюдается n1 раз x2 – n2 xk – nk
ni - частота -относительная частота Замечание: В теории вероятности под распределениями понимают соответствие между возможными значениями случ.величины и их вер-тями. А в мат.статистике – соответствие между наблюдаемыми вариантами и их частотами. Эмпирическая функция распределения: nx-число наблюдений, при которых наблюдалось значение признака варианты меньше, чем х n-общее число наблюдений (объём выборки) x<x -частота события, когда x<x Эмперической функцией распределения случ.величины x наз.функцию F*ξ(x), определяющую для каждого значения x относительную частоту событий: Недостатки: Невысокая наглядность (визуально сложно определить закон распределения сл.величины x) Гистограмма и полигон относит.частот: Полигоном частот наз.ломаную, отрезки к-ой соединяют xi и ni.
Площадь гистограммы частот =сумме всех частот, то есть объёму выборки. Статистическая проверка гипотез. Основные понятия. Статистический критерий, ошибки 1-го и 2-го родов, уровень значимости и мощность критерия. Критерий согласия Пирсона. Проверка гипотезы о значении параметров нормального распределения. Проверка гипотезы о законе распределения случайной величины. Статистическая проверка гипотез. Основные понятия. Уровень значимости и мощности критерия Статистической гипотезой наз всякое непротиворечивое множество утверждений относительно закона распределения случайной величины. Статистикой нзв произвольная функция Z = φ (Zn) выборки Zn, для значений к-рой известны условные плотности распределения f (z | H 0) и f (z | H 1) относительно проверяемой гипотезы H 0 и конкурирующей с ней альтернативной гипотезы H 1. Из опред следует, что Z есть СВ. Практическое применение мат. статистики состоит в проверке соответствия результатов экспериментов предполагаемой гипотезе. С этой целью строится процедура (правило) проверки гипотезы. Критерием согласия называется правило, в соответствии с которым по реализации статистики Z, вычисленной на основании апостериорной выборки zn, гипотеза H 0 принимается или отвергается. Критической областью G называется область реализаций z статистики Z, при которых гипотеза H 0 отвергается. Доверительной областью G называется область значений z статистики Z, при которых гипотеза H 0 принимается. Уровнем значимости α критерия согласия называется вероятность события, стоящего в том, что гипотеза H 0 отвергается, когда она верна, т.е. α =P{ZÎG|H0} где вероятность P соответствует условной плотности распределения f (z | H 0). Мощностью γ критерия согласия называется вероятность события, состоящего в том, что гипотеза H 0 отвергается, когда она неверна, т.е. γ=P{ZÎG|H1} где вероятность P соответствует условной плотности f (z | H 1). Критической точкой zβ называется точка на оси Oz, являющаяся квантилем уровня β=1 – α распределения F (z | H 0), соответствующего плотности распределения f (z | H 0). На рис. показана графическая интерпретация введенных понятий, где β + α = 1, δ + γ = 1.
Статистический критерий, ошибки 1-го и 2-го родов Ошибка 1-го рода состоит в отклонении гипотезы, если она верна (пропуск цели). Вер
|
|||||||||||||||||||||||||||||||||||||||
Последнее изменение этой страницы: 2016-09-19; просмотров: 290; Нарушение авторского права страницы; Мы поможем в написании вашей работы! infopedia.su Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав. Обратная связь - 3.129.42.59 (0.019 с.) |