Заглавная страница Избранные статьи Случайная статья Познавательные статьи Новые добавления Обратная связь FAQ Написать работу КАТЕГОРИИ: АрхеологияБиология Генетика География Информатика История Логика Маркетинг Математика Менеджмент Механика Педагогика Религия Социология Технологии Физика Философия Финансы Химия Экология ТОП 10 на сайте Приготовление дезинфицирующих растворов различной концентрацииТехника нижней прямой подачи мяча. Франко-прусская война (причины и последствия) Организация работы процедурного кабинета Смысловое и механическое запоминание, их место и роль в усвоении знаний Коммуникативные барьеры и пути их преодоления Обработка изделий медицинского назначения многократного применения Образцы текста публицистического стиля Четыре типа изменения баланса Задачи с ответами для Всероссийской олимпиады по праву Мы поможем в написании ваших работ! ЗНАЕТЕ ЛИ ВЫ?
Влияние общества на человека
Приготовление дезинфицирующих растворов различной концентрации Практические работы по географии для 6 класса Организация работы процедурного кабинета Изменения в неживой природе осенью Уборка процедурного кабинета Сольфеджио. Все правила по сольфеджио Балочные системы. Определение реакций опор и моментов защемления |
Статистическая и корреляционная зависимость.↑ Стр 1 из 2Следующая ⇒ Содержание книги
Поиск на нашем сайте
Критерий согласия Пирсона. Из критериев согласование чаще всего применяется критерий Пирсона. В качестве меры расхождения Y берется велечина Х2, равная сумме квадратов отклонений частостей (статистических вероятностей) wi от гипотетических вероятностей pi, расчитанных по предпологаемому распределению, взятых с некотроми весами с1: Y= Х2 =Σ с1 (wi - pi)2 Если в качестве с1=n/p то можно сказать, что велечина Х2 будет расчитываться по следующей формуле: Х2 =Σ (miT-miЭ)/miT. miЭ -частоты эмперического распределения, miT - частоты теорического распределения. А также велечина Х2 зависит о числа свободы степеней: r=l-s, где l-число интервалов эмперического распределения, s-сумма числа параметров теоретического закона. Для применения критерия согласия Пирсона используется определенный алгоритм. Алгоритм применения критерия согласия Пирсона: 1. Исходя из смысла изучаемой случайной велечины и свойств эмперическго распределения, выбрать предпологаемый закон распределения т затем найти параметры этого закона. 2. Определить теоритические частоты: miT=nPi(xi<X≤xi+1) 3. Вычеслить по формуле Х2 =Σ (miT-miЭ)/miT велечину Х2, об означив еезначение через Х02. 4. Определить число степенем свободы по формуле: r=l-s. 5. Выбрать урівень значимости математического ожидания – а. 6. По известным значениям Х02 и r найти вероятность того, что СВ Х2 примет каное-небудь значение не менше, чем Х02, т.е. Р(Х2≥Х02)=β. 7. Сделать выводы, о принятий гипотезы о распределении признака генеральной савокупности, или же от вергнуть ее.
Выборочный метод. Выборочный метод состоит в том, чтобы на основании изучения некоторой части савокупности выборки полученой на основе случайного отбора можно было судить о всей савокупности. Типы выборки: 1. Собственно случаймо – элементы отбираются в выборку случайно. а)собственно случайно повторне б)собственно случайно безповторные. 2. Механическая – элементы отбираются через заранее определеннный інтервал. 3. Типическая- элементы розбиваються на группы и из каждой группы выбираются несколько элементов. 4. Серийная – элементы делятся на серии и несколько выборончнх серий отбираются. Существует два вида признака выборочного метода: качественный и количественный. Для количесвенного признака используется формула Чебышова с уточнением Ляпунова: Р(|ẍв - ẍг|≤Δ)=Ф(t), Δ=t×µ Где: ẍв-средняя выборочная ẍг-средняя генеральная t-значение определяющие исходную надежность Δ-предельная ошибка выборки µ-среднеквадратическое ошибка выборки. µ=√ϐ2/n повторная выборка µ=√ϐ2/n × (1-n/N) безповторная выборка Для качественного признака используется формула Бернули с уточнение Ляпунова: P(|w-p|≤Δ)=Ф(t), Δ=t×µ Где: w=m/n - доля случайного варианта прищнака выборки t-значение определяющие исходную надежность Δ-предельная ошибка выборки µ-среднеквадратическое ошибка выборки. µ=√(w(1-w))/n повторная выборка µ=√ (w(1-w)) × (1-n/N) безповторная выборка Существует три типа задач на выборочный метод: 1.Нахождение надежности для указаного доверительного интервала. 2.Нахождение доверительного интервала для указаного вида надежности: -для количесвенного признка: ẍв - Δ ≤ ẍг ≤ ẍв + Δ -для качественного признака w - Δ ≤ p≤ w + Δ 3.Нахождение объемов выборки: - для количесвенного признака повторная выборка nповт=(t2×ϐ2)/Δ2 безповторная выборка nбезпов.=(nповт×N)/(nповт+N) повторная выборка nповт=(t2×w×(1-w))/Δ2 безповторная выборка nбезпов.=(nповт×N)/(nповт+N)
Статистическая и корреляционная зависимость. Зависимость между двумя СВ X и Y называют, статистической, если различныс значениям одной из них соответсвует различные распределения другой велечины. В частности статистическая зависимость проявляется в том, что при изменении одной из величин изменяется среднее значение другой. В этом случаи статистическую зависимость называют корреляционной. Основная задача теории корреляции – оценка тесноты корреляционной зависимости. т.е оценка степени рассеяния Y около групоповой средней yх или Х около хy. Большое рассеяние свидетельствует ослабой зависимости Y от Х или Х от Y либо об отсутствии зависимости. Груповой средней ẍy называют средневзвешаную значений Х соотвествующие значению Y=y. Аналогичн эта ситуации и для величины Y. Например если у нас буддет линейная корреляционная зависимость то в качестве показателя тесноты линейной корреляционной зависимости применяется коэфициент кореляции: r=±√ ρy/x × ρx/y Свойства линейного коэфициента корреляционной зависимости: 1. Абсолютная величина коэфициента корреляции не більше единицы: -1 ≤ r ≤ 1 2.Если все значения переменных увеличелись (уменшились) на одно и тоже число, то величина линейного коэфициента корреляции не изменится. 3. При r=1 или r=-1, то корреляционная связь прдеставляет линейную функциональную зависимость. 4. При r=0 линейная корреляционная зависимость отсутствует. В этом случае групповые средние переменные совпадают с их общин средним. А теоретические линии регресии Y и X на X и Y паралельны осям координат.
Коэффициент корреляции. В частности статистическая зависимость проявляется в том, что при изменении одной из величин изменяется среднее значение другой. В этом случаи статистическую зависимость называют корреляционной. Основная задача теории корреляции – оценка тесноты корреляционной зависимости. т.е оценка степени рассеяния Y около групоповой средней yх или Х около хy. Большое рассеяние свидетельствует ослабой зависимости Y от Х или Х от Y либо об отсутствии зависимости. Например если у нас буддет линейная корреляционная зависимость то в качестве показателя тесноты линейной корреляционной зависимости применяется коэфициент кореляции: r=±√ ρy/x × ρx/y Свойства линейного коэфициента корреляционной зависимости: 1. Абсолютная величина коэфициента корреляции не більше единицы: -1 ≤ r ≤ 1 2.Если все значения переменных увеличелись (уменшились) на одно и тоже число, то величина линейного коэфициента корреляции не изменится. 3. При r=1 или r=-1, то корреляционная связь прдеставляет линейную функциональную зависимость. 4. При r=0 линейная корреляционная зависимость отсутствует. В этом случае групповые средние переменные совпадают с их общин средним. А теоретические линии регресии Y и X на X и Y паралельны осям координат. Дисперсія та її властивості На практиці важливо вміти оцінювати величину розсіювання можливих значень ВВ біля його середнього значення такою характеристикою є дисперсія або середнє квадратичне відхилення. Дисперсією ДВВ наз. матем.сподів.квадратичного відхилення ВВ від її мате мат. сподівання: Д(Х)=М[Х-М(Х)]², з означення випливає, що Д(Х)=)=∑ (хі -М(Х))² рі Д(Х)=>0,т.я. це матем.сподів.квадратичного відхилення. Дисперсія ДВВ дорівнює різниці між мат.спод.квадрат.відхил. ВВ і квадратом її мат.сподів. Д(Х)= М(Х²)-М²(Х) Дов-ня: Д(Х)=М[Х-М(Х)]²= М[Х²-2М(Х)Х+М²(Х)] = М(Х²)-М(2М(Х)Х)+М(М²(Х))= М(Х²)-2М(Х) М(Х)+М²(Х)= М(Х²)-2М²(Х)+М²(Х)= М(Х²)-М²(Х) Властивості: 1)Дисперсія сталої,постійної величини дорівнює 0: Д(с)=0 Дов-ня: за означенням Д(с)=М[с-М(с)]²=М(с-с)²=М(0)=0 2) Постійний множник виноситься за знак дисперсії зі зведенням у квадрат Д(сХ)=с²Д(Х) Дов-ня: за означенням Д(сХ)=М[сХ-М(сХ)]²= М[сХ-сМ(Х)]²= М[с(Х-М(Х))]²= Мс²[Х-М(Х)]²=с²Д(Х) 3) Дисперсія різниці незалежних ВВ Х і У дорівнює сумі дисперсій цих величин Д(Х-У)=Д(Х)+Д(У) Дов-ня: Д(Х-У)=Д(Х+(-1)У)=Д(Х)+Д((-1)У)=Д(Х)+(-1)²Д(У)=Д(Х)+Д(У) Наслідок 1: дисперсія ВВ Х і центрованої випадкової величини Х-М(Х) рівні між собою Д(Х-М(Х))=Д(Х) Дов-ня: дійсно Д(Х-М(Х))=Д(Х)+Д(М(Х)=Д(Х)+0=Д(Х) Наслідок 2: іноді зручно використовувати безрозмірні центровані ВВ. Центрованц ВВ Х-М(Х) розділимо на середнє квадратичне відхилення σ, що має ту ж саму розмірність. Знову отримана ВВ наз. стандартною ВВ. Позначимо цю величину через Z.Таким чином: Z= Математичне сподівання ВВ Z дорівнює нулю, а дисперсія 1. Дов-ня: М(Z)=М()= =0; Д(Х)=Д()= = =1 4) Дисперсія добутку незалежних ВВ Х і У дорівнює різниці добутку мат.сподів.квадратів ВВ і добутку квадратів мат.спод.ВВ Д(ХУ)=М(Х²)М(У²)-М²(Х)М²(У)
Критерий согласия Пирсона. Из критериев согласование чаще всего применяется критерий Пирсона. В качестве меры расхождения Y берется велечина Х2, равная сумме квадратов отклонений частостей (статистических вероятностей) wi от гипотетических вероятностей pi, расчитанных по предпологаемому распределению, взятых с некотроми весами с1: Y= Х2 =Σ с1 (wi - pi)2 Если в качестве с1=n/p то можно сказать, что велечина Х2 будет расчитываться по следующей формуле: Х2 =Σ (miT-miЭ)/miT. miЭ -частоты эмперического распределения, miT - частоты теорического распределения. А также велечина Х2 зависит о числа свободы степеней: r=l-s, где l-число интервалов эмперического распределения, s-сумма числа параметров теоретического закона. Для применения критерия согласия Пирсона используется определенный алгоритм. Алгоритм применения критерия согласия Пирсона: 1. Исходя из смысла изучаемой случайной велечины и свойств эмперическго распределения, выбрать предпологаемый закон распределения т затем найти параметры этого закона. 2. Определить теоритические частоты: miT=nPi(xi<X≤xi+1) 3. Вычеслить по формуле Х2 =Σ (miT-miЭ)/miT велечину Х2, об означив еезначение через Х02. 4. Определить число степенем свободы по формуле: r=l-s. 5. Выбрать урівень значимости математического ожидания – а. 6. По известным значениям Х02 и r найти вероятность того, что СВ Х2 примет каное-небудь значение не менше, чем Х02, т.е. Р(Х2≥Х02)=β. 7. Сделать выводы, о принятий гипотезы о распределении признака генеральной савокупности, или же от вергнуть ее.
Выборочный метод. Выборочный метод состоит в том, чтобы на основании изучения некоторой части савокупности выборки полученой на основе случайного отбора можно было судить о всей савокупности. Типы выборки: 1. Собственно случаймо – элементы отбираются в выборку случайно. а)собственно случайно повторне б)собственно случайно безповторные. 2. Механическая – элементы отбираются через заранее определеннный інтервал. 3. Типическая- элементы розбиваються на группы и из каждой группы выбираются несколько элементов. 4. Серийная – элементы делятся на серии и несколько выборончнх серий отбираются. Существует два вида признака выборочного метода: качественный и количественный. Для количесвенного признака используется формула Чебышова с уточнением Ляпунова: Р(|ẍв - ẍг|≤Δ)=Ф(t), Δ=t×µ Где: ẍв-средняя выборочная ẍг-средняя генеральная t-значение определяющие исходную надежность Δ-предельная ошибка выборки µ-среднеквадратическое ошибка выборки. µ=√ϐ2/n повторная выборка µ=√ϐ2/n × (1-n/N) безповторная выборка Для качественного признака используется формула Бернули с уточнение Ляпунова: P(|w-p|≤Δ)=Ф(t), Δ=t×µ Где: w=m/n - доля случайного варианта прищнака выборки t-значение определяющие исходную надежность Δ-предельная ошибка выборки µ-среднеквадратическое ошибка выборки. µ=√(w(1-w))/n повторная выборка µ=√ (w(1-w)) × (1-n/N) безповторная выборка Существует три типа задач на выборочный метод: 1.Нахождение надежности для указаного доверительного интервала. 2.Нахождение доверительного интервала для указаного вида надежности: -для количесвенного признка: ẍв - Δ ≤ ẍг ≤ ẍв + Δ -для качественного признака w - Δ ≤ p≤ w + Δ 3.Нахождение объемов выборки: - для количесвенного признака повторная выборка nповт=(t2×ϐ2)/Δ2 безповторная выборка nбезпов.=(nповт×N)/(nповт+N) повторная выборка nповт=(t2×w×(1-w))/Δ2 безповторная выборка nбезпов.=(nповт×N)/(nповт+N)
Статистическая и корреляционная зависимость. Зависимость между двумя СВ X и Y называют, статистической, если различныс значениям одной из них соответсвует различные распределения другой велечины. В частности статистическая зависимость проявляется в том, что при изменении одной из величин изменяется среднее значение другой. В этом случаи статистическую зависимость называют корреляционной. Основная задача теории корреляции – оценка тесноты корреляционной зависимости. т.е оценка степени рассеяния Y около групоповой средней yх или Х около хy. Большое рассеяние свидетельствует ослабой зависимости Y от Х или Х от Y либо об отсутствии зависимости. Груповой средней ẍy называют средневзвешаную значений Х соотвествующие значению Y=y. Аналогичн эта ситуации и для величины Y. Например если у нас буддет линейная корреляционная зависимость то в качестве показателя тесноты линейной корреляционной зависимости применяется коэфициент кореляции: r=±√ ρy/x × ρx/y Свойства линейного коэфициента корреляционной зависимости: 1. Абсолютная величина коэфициента корреляции не більше единицы: -1 ≤ r ≤ 1 2.Если все значения переменных увеличелись (уменшились) на одно и тоже число, то величина линейного коэфициента корреляции не изменится. 3. При r=1 или r=-1, то корреляционная связь прдеставляет линейную функциональную зависимость. 4. При r=0 линейная корреляционная зависимость отсутствует. В этом случае групповые средние переменные совпадают с их общин средним. А теоретические линии регресии Y и X на X и Y паралельны осям координат.
Коэффициент корреляции. В частности статистическая зависимость проявляется в том, что при изменении одной из величин изменяется среднее значение другой. В этом случаи статистическую зависимость называют корреляционной. Основная задача теории корреляции – оценка тесноты корреляционной зависимости. т.е оценка степени рассеяния Y около групоповой средней yх или Х около хy. Большое рассеяние свидетельствует ослабой зависимости Y от Х или Х от Y либо об отсутствии зависимости. Например если у нас буддет линейная корреляционная зависимость то в качестве показателя тесноты линейной корреляционной зависимости применяется коэфициент кореляции: r=±√ ρy/x × ρx/y Свойства линейного коэфициента корреляционной зависимости: 1. Абсолютная величина коэфициента корреляции не більше единицы: -1 ≤ r ≤ 1 2.Если все значения переменных увеличелись (уменшились) на одно и тоже число, то величина линейного коэфициента корреляции не изменится. 3. При r=1 или r=-1, то корреляционная связь прдеставляет линейную функциональную зависимость. 4. При r=0 линейная корреляционная зависимость отсутствует. В этом случае групповые средние переменные совпадают с их общин средним. А теоретические линии регресии Y и X на X и Y паралельны осям координат. Дисперсія та її властивості На практиці важливо вміти оцінювати величину розсіювання можливих значень ВВ біля його середнього значення такою характеристикою є дисперсія або середнє квадратичне відхилення. Дисперсією ДВВ наз. матем.сподів.квадратичного відхилення ВВ від її мате мат. сподівання: Д(Х)=М[Х-М(Х)]², з означення випливає, що Д(Х)=)=∑ (хі -М(Х))² рі Д(Х)=>0,т.я. це матем.сподів.квадратичного відхилення. Дисперсія ДВВ дорівнює різниці між мат.спод.квадрат.відхил. ВВ і квадратом її мат.сподів. Д(Х)= М(Х²)-М²(Х) Дов-ня: Д(Х)=М[Х-М(Х)]²= М[Х²-2М(Х)Х+М²(Х)] = М(Х²)-М(2М(Х)Х)+М(М²(Х))= М(Х²)-2М(Х) М(Х)+М²(Х)= М(Х²)-2М²(Х)+М²(Х)= М(Х²)-М²(Х) Властивості: 1)Дисперсія сталої,постійної величини дорівнює 0: Д(с)=0 Дов-ня: за означенням Д(с)=М[с-М(с)]²=М(с-с)²=М(0)=0 2) Постійний множник виноситься за знак дисперсії зі зведенням у квадрат Д(сХ)=с²Д(Х) Дов-ня: за означенням Д(сХ)=М[сХ-М(сХ)]²= М[сХ-сМ(Х)]²= М[с(Х-М(Х))]²= Мс²[Х-М(Х)]²=с²Д(Х) 3) Дисперсія різниці незалежних ВВ Х і У дорівнює сумі дисперсій цих величин Д(Х-У)=Д(Х)+Д(У) Дов-ня: Д(Х-У)=Д(Х+(-1)У)=Д(Х)+Д((-1)У)=Д(Х)+(-1)²Д(У)=Д(Х)+Д(У) Наслідок 1: дисперсія ВВ Х і центрованої випадкової величини Х-М(Х) рівні між собою Д(Х-М(Х))=Д(Х) Дов-ня: дійсно Д(Х-М(Х))=Д(Х)+Д(М(Х)=Д(Х)+0=Д(Х) Наслідок 2: іноді зручно використовувати безрозмірні центровані ВВ. Центрованц ВВ Х-М(Х) розділимо на середнє квадратичне відхилення σ, що має ту ж саму розмірність. Знову отримана ВВ наз. стандартною ВВ. Позначимо цю величину через Z.Таким чином: Z= Математичне сподівання ВВ Z дорівнює нулю, а дисперсія 1. Дов-ня: М(Z)=М()= =0; Д(Х)=Д()= = =1 4) Дисперсія добутку незалежних ВВ Х і У дорівнює різниці добутку мат.сподів.квадратів ВВ і добутку квадратів мат.спод.ВВ Д(ХУ)=М(Х²)М(У²)-М²(Х)М²(У)
|
||||
Последнее изменение этой страницы: 2016-09-19; просмотров: 243; Нарушение авторского права страницы; Мы поможем в написании вашей работы! infopedia.su Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав. Обратная связь - 18.222.167.85 (0.009 с.) |