Мы поможем в написании ваших работ!



ЗНАЕТЕ ЛИ ВЫ?

Статистическая и корреляционная зависимость.

Поиск

Критерий согласия Пирсона.

Из критериев согласование чаще всего применяется критерий Пирсона. В качестве меры расхождения Y берется велечина Х2, равная сумме квадратов отклонений частостей (статистических вероятностей) wi от гипотетических вероятностей pi, расчитанных по предпологаемому распределению, взятых с некотроми весами с1:

Y= Х2 =Σ с1 (wi - pi)2

Если в качестве с1=n/p то можно сказать, что велечина Х2 будет расчитываться по следующей формуле: Х2 =Σ (miT-miЭ)/miT. miЭ -частоты эмперического распределения, miT - частоты теорического распределения. А также велечина Х2 зависит о числа свободы степеней: r=l-s, где l-число интервалов эмперического распределения, s-сумма числа параметров теоретического закона.

Для применения критерия согласия Пирсона используется определенный алгоритм.

Алгоритм применения критерия согласия Пирсона:

1. Исходя из смысла изучаемой случайной велечины и свойств эмперическго распределения, выбрать предпологаемый закон распределения т затем найти параметры этого закона.

2. Определить теоритические частоты: miT=nPi(xi<X≤xi+1)

3. Вычеслить по формуле Х2 =Σ (miT-miЭ)/miT велечину Х2, об означив еезначение через Х02.

4. Определить число степенем свободы по формуле: r=l-s.

5. Выбрать урівень значимости математического ожидания – а.

6. По известным значениям Х02 и r найти вероятность того, что СВ Х2 примет каное-небудь значение не менше, чем Х02, т.е. Р(Х2≥Х02)=β.

7. Сделать выводы, о принятий гипотезы о распределении признака генеральной савокупности, или же от вергнуть ее.

 

 

Выборочный метод.

Выборочный метод состоит в том, чтобы на основании изучения некоторой части савокупности выборки полученой на основе случайного отбора можно было судить о всей савокупности.

Типы выборки:

1. Собственно случаймо – элементы отбираются в выборку случайно.

а)собственно случайно повторне

б)собственно случайно безповторные.

2. Механическая – элементы отбираются через заранее определеннный інтервал.

3. Типическая- элементы розбиваються на группы и из каждой группы выбираются несколько элементов.

4. Серийная – элементы делятся на серии и несколько выборончнх серий отбираются.

Существует два вида признака выборочного метода: качественный и количественный.

Для количесвенного признака используется формула Чебышова с уточнением Ляпунова:

Р(|ẍв - ẍг|≤Δ)=Ф(t), Δ=t×µ

Где:

в-средняя выборочная

г-средняя генеральная

t-значение определяющие исходную надежность

Δ-предельная ошибка выборки

µ-среднеквадратическое ошибка выборки.

µ=√ϐ2/n повторная выборка

µ=√ϐ2/n × (1-n/N) безповторная выборка

Для качественного признака используется формула Бернули с уточнение Ляпунова:

P(|w-p|≤Δ)=Ф(t), Δ=t×µ

Где:

w=m/n - доля случайного варианта прищнака выборки

t-значение определяющие исходную надежность

Δ-предельная ошибка выборки

µ-среднеквадратическое ошибка выборки.

µ=√(w(1-w))/n повторная выборка

µ=√ (w(1-w)) × (1-n/N) безповторная выборка

Существует три типа задач на выборочный метод:

1.Нахождение надежности для указаного доверительного интервала.

2.Нахождение доверительного интервала для указаного вида надежности:

-для количесвенного признка:

в - Δ ≤ ẍг ≤ ẍв + Δ

-для качественного признака

w - Δ ≤ p≤ w + Δ

3.Нахождение объемов выборки:

- для количесвенного признака

повторная выборка

nповт=(t2×ϐ2)/Δ2

безповторная выборка

nбезпов.=(nповт×N)/(nповт+N)
- для качесвенного признака

повторная выборка

nповт=(t2×w×(1-w))/Δ2

безповторная выборка

nбезпов.=(nповт×N)/(nповт+N)

 

Статистическая и корреляционная зависимость.

Зависимость между двумя СВ X и Y называют, статистической, если различныс значениям одной из них соответсвует различные распределения другой велечины.

В частности статистическая зависимость проявляется в том, что при изменении одной из величин изменяется среднее значение другой. В этом случаи статистическую зависимость называют корреляционной.

Основная задача теории корреляции – оценка тесноты корреляционной зависимости. т.е оценка степени рассеяния Y около групоповой средней yх или Х около хy. Большое рассеяние свидетельствует ослабой зависимости Y от Х или Х от Y либо об отсутствии зависимости.

Груповой средней y называют средневзвешаную значений Х соотвествующие значению Y=y. Аналогичн эта ситуации и для величины Y.

Например если у нас буддет линейная корреляционная зависимость то в качестве показателя тесноты линейной корреляционной зависимости применяется коэфициент кореляции:

r=±√ ρy/x × ρx/y

Свойства линейного коэфициента корреляционной зависимости:

1. Абсолютная величина коэфициента корреляции не більше единицы: -1 ≤ r ≤ 1

2.Если все значения переменных увеличелись (уменшились) на одно и тоже число, то величина линейного коэфициента корреляции не изменится.

3. При r=1 или r=-1, то корреляционная связь прдеставляет линейную функциональную зависимость.

4. При r=0 линейная корреляционная зависимость отсутствует. В этом случае групповые средние переменные совпадают с их общин средним. А теоретические линии регресии Y и X на

X и Y паралельны осям координат.

 

Коэффициент корреляции.

В частности статистическая зависимость проявляется в том, что при изменении одной из величин изменяется среднее значение другой. В этом случаи статистическую зависимость называют корреляционной.

Основная задача теории корреляции – оценка тесноты корреляционной зависимости. т.е оценка степени рассеяния Y около групоповой средней yх или Х около хy. Большое рассеяние свидетельствует ослабой зависимости Y от Х или Х от Y либо об отсутствии зависимости.

Например если у нас буддет линейная корреляционная зависимость то в качестве показателя тесноты линейной корреляционной зависимости применяется коэфициент кореляции:

r=±√ ρy/x × ρx/y

Свойства линейного коэфициента корреляционной зависимости:

1. Абсолютная величина коэфициента корреляции не більше единицы: -1 ≤ r ≤ 1

2.Если все значения переменных увеличелись (уменшились) на одно и тоже число, то величина линейного коэфициента корреляции не изменится.

3. При r=1 или r=-1, то корреляционная связь прдеставляет линейную функциональную зависимость.

4. При r=0 линейная корреляционная зависимость отсутствует. В этом случае групповые средние переменные совпадают с их общин средним. А теоретические линии регресии Y и X на

X и Y паралельны осям координат.

Дисперсія та її властивості

На практиці важливо вміти оцінювати величину розсіювання можливих значень ВВ біля його середнього значення такою характеристикою є дисперсія або середнє квадратичне відхилення. Дисперсією ДВВ наз. матем.сподів.квадратичного відхилення ВВ від її мате мат. сподівання: Д(Х)=М[Х-М(Х)]², з означення випливає, що Д(Х)=)=∑ (хі -М(Х))² рі

Д(Х)=>0,т.я. це матем.сподів.квадратичного відхилення. Дисперсія ДВВ дорівнює різниці між мат.спод.квадрат.відхил. ВВ і квадратом її мат.сподів. Д(Х)= М(Х²)-М²(Х)

Дов-ня: Д(Х)=М[Х-М(Х)]²= М[Х²-2М(Х)Х+М²(Х)] = М(Х²)-М(2М(Х)Х)+М(М²(Х))=

М(Х²)-2М(Х) М(Х)+М²(Х)= М(Х²)-2М²(Х)+М²(Х)= М(Х²)-М²(Х)

Властивості:

1)Дисперсія сталої,постійної величини дорівнює 0: Д(с)=0

Дов-ня: за означенням

Д(с)=М[с-М(с)]²=М(с-с)²=М(0)=0

2) Постійний множник виноситься за знак дисперсії зі зведенням у квадрат Д(сХ)=с²Д(Х) Дов-ня: за означенням Д(сХ)=М[сХ-М(сХ)]²= М[сХ-сМ(Х)]²= М[с(Х-М(Х))]²= Мс²[Х-М(Х)]²=с²Д(Х)

3) Дисперсія різниці незалежних ВВ Х і У дорівнює сумі дисперсій цих величин Д(Х-У)=Д(Х)+Д(У) Дов-ня: Д(Х-У)=Д(Х+(-1)У)=Д(Х)+Д((-1)У)=Д(Х)+(-1)²Д(У)=Д(Х)+Д(У)

Наслідок 1: дисперсія ВВ Х і центрованої випадкової величини Х-М(Х) рівні між собою Д(Х-М(Х))=Д(Х) Дов-ня: дійсно Д(Х-М(Х))=Д(Х)+Д(М(Х)=Д(Х)+0=Д(Х)

Наслідок 2: іноді зручно використовувати безрозмірні центровані ВВ. Центрованц ВВ Х-М(Х) розділимо на середнє квадратичне відхилення σ, що має ту ж саму розмірність. Знову отримана ВВ наз. стандартною ВВ. Позначимо цю величину через Z.Таким чином: Z= Математичне сподівання ВВ Z дорівнює нулю, а дисперсія 1. Дов-ня: М(Z)=М()= =0; Д(Х)=Д()= = =1

4) Дисперсія добутку незалежних ВВ Х і У дорівнює різниці добутку мат.сподів.квадратів ВВ і добутку квадратів мат.спод.ВВ Д(ХУ)=М(Х²)М(У²)-М²(Х)М²(У)

 

Критерий согласия Пирсона.

Из критериев согласование чаще всего применяется критерий Пирсона. В качестве меры расхождения Y берется велечина Х2, равная сумме квадратов отклонений частостей (статистических вероятностей) wi от гипотетических вероятностей pi, расчитанных по предпологаемому распределению, взятых с некотроми весами с1:

Y= Х2 =Σ с1 (wi - pi)2

Если в качестве с1=n/p то можно сказать, что велечина Х2 будет расчитываться по следующей формуле: Х2 =Σ (miT-miЭ)/miT. miЭ -частоты эмперического распределения, miT - частоты теорического распределения. А также велечина Х2 зависит о числа свободы степеней: r=l-s, где l-число интервалов эмперического распределения, s-сумма числа параметров теоретического закона.

Для применения критерия согласия Пирсона используется определенный алгоритм.

Алгоритм применения критерия согласия Пирсона:

1. Исходя из смысла изучаемой случайной велечины и свойств эмперическго распределения, выбрать предпологаемый закон распределения т затем найти параметры этого закона.

2. Определить теоритические частоты: miT=nPi(xi<X≤xi+1)

3. Вычеслить по формуле Х2 =Σ (miT-miЭ)/miT велечину Х2, об означив еезначение через Х02.

4. Определить число степенем свободы по формуле: r=l-s.

5. Выбрать урівень значимости математического ожидания – а.

6. По известным значениям Х02 и r найти вероятность того, что СВ Х2 примет каное-небудь значение не менше, чем Х02, т.е. Р(Х2≥Х02)=β.

7. Сделать выводы, о принятий гипотезы о распределении признака генеральной савокупности, или же от вергнуть ее.

 

 

Выборочный метод.

Выборочный метод состоит в том, чтобы на основании изучения некоторой части савокупности выборки полученой на основе случайного отбора можно было судить о всей савокупности.

Типы выборки:

1. Собственно случаймо – элементы отбираются в выборку случайно.

а)собственно случайно повторне

б)собственно случайно безповторные.

2. Механическая – элементы отбираются через заранее определеннный інтервал.

3. Типическая- элементы розбиваються на группы и из каждой группы выбираются несколько элементов.

4. Серийная – элементы делятся на серии и несколько выборончнх серий отбираются.

Существует два вида признака выборочного метода: качественный и количественный.

Для количесвенного признака используется формула Чебышова с уточнением Ляпунова:

Р(|ẍв - ẍг|≤Δ)=Ф(t), Δ=t×µ

Где:

в-средняя выборочная

г-средняя генеральная

t-значение определяющие исходную надежность

Δ-предельная ошибка выборки

µ-среднеквадратическое ошибка выборки.

µ=√ϐ2/n повторная выборка

µ=√ϐ2/n × (1-n/N) безповторная выборка

Для качественного признака используется формула Бернули с уточнение Ляпунова:

P(|w-p|≤Δ)=Ф(t), Δ=t×µ

Где:

w=m/n - доля случайного варианта прищнака выборки

t-значение определяющие исходную надежность

Δ-предельная ошибка выборки

µ-среднеквадратическое ошибка выборки.

µ=√(w(1-w))/n повторная выборка

µ=√ (w(1-w)) × (1-n/N) безповторная выборка

Существует три типа задач на выборочный метод:

1.Нахождение надежности для указаного доверительного интервала.

2.Нахождение доверительного интервала для указаного вида надежности:

-для количесвенного признка:

в - Δ ≤ ẍг ≤ ẍв + Δ

-для качественного признака

w - Δ ≤ p≤ w + Δ

3.Нахождение объемов выборки:

- для количесвенного признака

повторная выборка

nповт=(t2×ϐ2)/Δ2

безповторная выборка

nбезпов.=(nповт×N)/(nповт+N)
- для качесвенного признака

повторная выборка

nповт=(t2×w×(1-w))/Δ2

безповторная выборка

nбезпов.=(nповт×N)/(nповт+N)

 

Статистическая и корреляционная зависимость.

Зависимость между двумя СВ X и Y называют, статистической, если различныс значениям одной из них соответсвует различные распределения другой велечины.

В частности статистическая зависимость проявляется в том, что при изменении одной из величин изменяется среднее значение другой. В этом случаи статистическую зависимость называют корреляционной.

Основная задача теории корреляции – оценка тесноты корреляционной зависимости. т.е оценка степени рассеяния Y около групоповой средней yх или Х около хy. Большое рассеяние свидетельствует ослабой зависимости Y от Х или Х от Y либо об отсутствии зависимости.

Груповой средней y называют средневзвешаную значений Х соотвествующие значению Y=y. Аналогичн эта ситуации и для величины Y.

Например если у нас буддет линейная корреляционная зависимость то в качестве показателя тесноты линейной корреляционной зависимости применяется коэфициент кореляции:

r=±√ ρy/x × ρx/y

Свойства линейного коэфициента корреляционной зависимости:

1. Абсолютная величина коэфициента корреляции не більше единицы: -1 ≤ r ≤ 1

2.Если все значения переменных увеличелись (уменшились) на одно и тоже число, то величина линейного коэфициента корреляции не изменится.

3. При r=1 или r=-1, то корреляционная связь прдеставляет линейную функциональную зависимость.

4. При r=0 линейная корреляционная зависимость отсутствует. В этом случае групповые средние переменные совпадают с их общин средним. А теоретические линии регресии Y и X на

X и Y паралельны осям координат.

 

Коэффициент корреляции.

В частности статистическая зависимость проявляется в том, что при изменении одной из величин изменяется среднее значение другой. В этом случаи статистическую зависимость называют корреляционной.

Основная задача теории корреляции – оценка тесноты корреляционной зависимости. т.е оценка степени рассеяния Y около групоповой средней yх или Х около хy. Большое рассеяние свидетельствует ослабой зависимости Y от Х или Х от Y либо об отсутствии зависимости.

Например если у нас буддет линейная корреляционная зависимость то в качестве показателя тесноты линейной корреляционной зависимости применяется коэфициент кореляции:

r=±√ ρy/x × ρx/y

Свойства линейного коэфициента корреляционной зависимости:

1. Абсолютная величина коэфициента корреляции не більше единицы: -1 ≤ r ≤ 1

2.Если все значения переменных увеличелись (уменшились) на одно и тоже число, то величина линейного коэфициента корреляции не изменится.

3. При r=1 или r=-1, то корреляционная связь прдеставляет линейную функциональную зависимость.

4. При r=0 линейная корреляционная зависимость отсутствует. В этом случае групповые средние переменные совпадают с их общин средним. А теоретические линии регресии Y и X на

X и Y паралельны осям координат.

Дисперсія та її властивості

На практиці важливо вміти оцінювати величину розсіювання можливих значень ВВ біля його середнього значення такою характеристикою є дисперсія або середнє квадратичне відхилення. Дисперсією ДВВ наз. матем.сподів.квадратичного відхилення ВВ від її мате мат. сподівання: Д(Х)=М[Х-М(Х)]², з означення випливає, що Д(Х)=)=∑ (хі -М(Х))² рі

Д(Х)=>0,т.я. це матем.сподів.квадратичного відхилення. Дисперсія ДВВ дорівнює різниці між мат.спод.квадрат.відхил. ВВ і квадратом її мат.сподів. Д(Х)= М(Х²)-М²(Х)

Дов-ня: Д(Х)=М[Х-М(Х)]²= М[Х²-2М(Х)Х+М²(Х)] = М(Х²)-М(2М(Х)Х)+М(М²(Х))=

М(Х²)-2М(Х) М(Х)+М²(Х)= М(Х²)-2М²(Х)+М²(Х)= М(Х²)-М²(Х)

Властивості:

1)Дисперсія сталої,постійної величини дорівнює 0: Д(с)=0

Дов-ня: за означенням

Д(с)=М[с-М(с)]²=М(с-с)²=М(0)=0

2) Постійний множник виноситься за знак дисперсії зі зведенням у квадрат Д(сХ)=с²Д(Х) Дов-ня: за означенням Д(сХ)=М[сХ-М(сХ)]²= М[сХ-сМ(Х)]²= М[с(Х-М(Х))]²= Мс²[Х-М(Х)]²=с²Д(Х)

3) Дисперсія різниці незалежних ВВ Х і У дорівнює сумі дисперсій цих величин Д(Х-У)=Д(Х)+Д(У) Дов-ня: Д(Х-У)=Д(Х+(-1)У)=Д(Х)+Д((-1)У)=Д(Х)+(-1)²Д(У)=Д(Х)+Д(У)

Наслідок 1: дисперсія ВВ Х і центрованої випадкової величини Х-М(Х) рівні між собою Д(Х-М(Х))=Д(Х) Дов-ня: дійсно Д(Х-М(Х))=Д(Х)+Д(М(Х)=Д(Х)+0=Д(Х)

Наслідок 2: іноді зручно використовувати безрозмірні центровані ВВ. Центрованц ВВ Х-М(Х) розділимо на середнє квадратичне відхилення σ, що має ту ж саму розмірність. Знову отримана ВВ наз. стандартною ВВ. Позначимо цю величину через Z.Таким чином: Z= Математичне сподівання ВВ Z дорівнює нулю, а дисперсія 1. Дов-ня: М(Z)=М()= =0; Д(Х)=Д()= = =1

4) Дисперсія добутку незалежних ВВ Х і У дорівнює різниці добутку мат.сподів.квадратів ВВ і добутку квадратів мат.спод.ВВ Д(ХУ)=М(Х²)М(У²)-М²(Х)М²(У)

 



Поделиться:


Последнее изменение этой страницы: 2016-09-19; просмотров: 243; Нарушение авторского права страницы; Мы поможем в написании вашей работы!

infopedia.su Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав. Обратная связь - 18.222.167.85 (0.009 с.)