Парадокс інтервальних оцінок 


Мы поможем в написании ваших работ!



ЗНАЕТЕ ЛИ ВЫ?

Парадокс інтервальних оцінок



Історія парадоксу

Теорія інтервального оцінювання була розроблена Г. Фішером і Д. Нейманом між 1925 і 1935 роками. Довірчий інтервал Неймана містить невідомий параметр  зі заданою ймовірністю . Нехай  - вибіркові значення, і припустимо, що  і  такі, що

 

.

 

тоді інтервал  називається довірчим інтервалом з коефіцієнтом надійності  для . Якщо  невідоме математичне сподівання нормального розподілу зі стандартним відхиленням , то

 

,

 

тобто  є довірчим інтервалом для   з коефіцієнтом надійності 0.95%. При іншому підході до інтервального оцінювання випадковим параметром не вибірка, а невідомий параметр . В цьому випадку інтервал  не залежить від вибіркових значень, і рівність

 

 

просто означає, що  потрапляє в інтервал  з ймовірністю . Наприклад, якщо  - невідоме математичне сподівання нормального розподілу, то через випадкові помилки вимірювань  не визначається повністю вибірковим середнім .

Такий параметр  можна розглядати як нормально розподілену випадкову величину з математичним сподіванням  і стандартним відхиленням . Отже,

 

.

 

Такий вигляд інтервальних оцінок, які називають фідуціальними інтервалами, введено Фішером. У випадку нормального розподілу, як ми бачимо, довірчі і фідуціальні інтервали формально збігаються; відрізняється лише їх "філософія". На протязі деякого часу вважали, що ці два види інтервалів практично збігаються, і суперечки про відмінність між довірчими і фідуціальними інтервалами є чисто теоретичними. Проте незабаром виявилися парадокси, що мають практичне значення. Різні підходи Фішера і Неймана привели і до різних результатів в практичних застосуваннях. У 1959 р. К. Стейн вказав на надзвичайно парадоксальний випадок. Для простоти він розглянув довірчі і фідуціальні інтервали, в яких  або  тому, що такі інтервали визначаються одним значенням (іншими кінцем інтервалу).

Парадокс

Нехай  - незалежні нормально розподілені випадкові величини з одиничною дисперсією. Позначимо через  їх математичне сподівання. Нехай вектор  знаходиться на відстані

 

 

від початку координат к Стейн довів, що фідуціальний і довірчий інтервали для  можуть суттєво відрізнятися. Оцінимо кожне  відповідним середнім значенням  вибірки обсягу . Нехай відстань між початком координат і вектором вибіркових середніх  дорівнює

 

.

Тоді

,

 

якщо  - випадкова величина (будується довірчий інтервал) і яке б не було значення невідомого параметра .

З іншого боку, якщо  - випадкова величина (будується фідуціальний інтервал), то

 

 

для будь - якого вибіркового середнього . Іншими словами, ймовірність того, що довірчий інтервал  містить невідоме значення , більша 50%; в той же час з імовірністю, більшою 50%, випадкова величина  знаходиться в (фідуціальному) інтервалі . Таким чином, з точки зору теорії довірчих інтервалів краще ставити на нерівність, а при фідуціальному підході ситуація прямо протилежна.

 

Пояснення парадоксу

Неможливо показати всі протиріччя між фідуціальним підходом і теорією довірчих інтервалів, які виникають у зв’язку з задачею Стейна. Якщо фідуціальний підхід застосовується не до елементів вибірки, заданими своїми координатами, а (через сферичну симетрію нормального розподілу) до сум квадратів координат, то фідуціальні інтервали співпадають з довірчими інтервалами. Отже, вигідніше ставити на те, що "  більше, ніж ".

 

Зауваження

2.9.4.1 Побудуємо інтервальну оцінку для невідомого математичного сподівання  нормального розподілу з відомим стандартним відхиленням , використовуючи апріорну інформацію про те, що величина  нормально розподілена з математичним сподіванням  і стандартним відхиленням  (ці величини відомі).

Якщо  - середнє значення вибірки об’єму , то за теоремою Байєса апостеріорний розподіл величини  також нормальне з математичним сподіванням

 

 

і стандартним відхиленням D, де

 

 

Отже,  є 95% інтервальною оцінкою для , оскільки

 

.

 

Відсутність апріорної інформації значить, що , тобто . Таким чином,

 

 

це і є фідуціальний інтервал. Отже, у випадку многовимірного нормального розподілу байєсівський підхід приводить до того ж самого парадоксу, що і фідуціальний підхід.

2.9.4.2 Нехай нам треба оцінити параметр зсуву  за вибіркою , елементи якої мають показникові щільність розподілу  (якщо  і 0 в супротивному разі). Оцінка

 

 

незміщена, і її щільність розподілу пропорційна  при . За допомогою цієї щільності можна легко знайти 90% довірчий інтервал найменшої довжини. У випадку, коли  цей довірчий інтервал має вигляд .

З іншого боку , очевидно, менше, ніж .

Таким чином, 90% довірчий інтервал найменшої довжини знаходиться в області, в якій  знаходитися не може! Джейнес підкреслив, що для побудови інтервальної оцінки слід скористатися байєсівським підходом. Якщо апріорна щільність є сталою, то апостеріорна щільність величини  буде , якщо  і 0 в протилежному випадку. Таким чином, інтервал

 

,

де

,

 

задає найменшу апостеріорну зону, яка містить апостеріорну ймовірність з ймовірністю . Для вказаної вище вибірки отримаємо .

З точки зору теорії довірчих інтервалів можна було б сказати, що  не є достатньою статистикою для , а статистика  - достатня. Довірчий інтервал найменшої довжини, побудований за достатньою статистикою, співпадає з байєсівським інтервалом, побудованим вище. Але навіть, якщо ми працюємо з , може виявитися, що 90% довірчий інтервал  лежить на від’ємній піввісь, а нам відомо (апріорна інформація), що величина  не може бути негативною.

2.10 Парадокс  - критерію Стьюдента

 

Історія парадокса

У класичній теорії математичної статистики припускається, що вибіркові значення (спостереження) заздалегідь відомі. В основі одного з важливіших напрямків сучасної статистики лежить розуміння того, що не треба фіксувати заздалегідь обсяг вибірки, його слідує визначати в залежності від результатів більш ранніх спостережень. Таким чином, обсяг вибірки випадковий. Ця ідея послідовного вибору поступово розвивалася у роботах Г. Доджа та Г. Роміга (1929 р), П. Махалонобіса (1940 р), Г. Хотеллінга (1941 р) та У. Бєрткі (1943 р), але дійснім засновником теорії послідовного аналізу в математичній статистиці є А. Вальд (1902-1950). Його послідовний критерій відношення правдоподібності (1943 р) став важливим відкриттям, яке дозволило (у типових ситуаціях) на 50% зменшити середню кількість спостережень (за тих же умов помилок). Не дивно, що в роки другої світової війни відкриття Вальда було оголошено "секретним". Його основна книга "Послідовний аналіз" опублікована лише у 1947 р. Рік потому Вальд та Дж. Волфовіц довели, що методи, які відрізняються від послідовного критерію правдоподібності, не дають такого зменшення числа елементів вибірки. Але і в цій області виявились парадокси. Розглянемо парадокс, який належить К. Стейну, хоча цей парадокс відноситься до двохшагових критеріїв, а не до послідовних.

 

Парадокс

Нехай  - вибірка незалежних нормально розподілених випадкових величин з спільним невідомим математичним сподіванням  та спільним невідомим стандартним відхиленням . На основі цієї вибірки будемо розрізнювати наступні нульову та альтернативну гіпотези. Нульова гіпотеза полягає у тому, що  (де  - деяке задане число), а альтернативна - у тому, що . Нехай

 

і

 

Такі гіпотези  та  розрізняють за допомогою  - критерію Стьюдента. Згідно  - критерію нульова гіпотеза не відхиляється або відхиляється в залежності від того, близько значення  до 0 чи ні. У 1940 р.Г. Данциг показав, що при заданій ймовірності помилки 1-го роду ймовірність помилки 2-го роду для будь - якого вирішального правила залежить від невідомого стандартного відхилення . Парадоксально, але через 5 років К. Стейн довів, що якщо обсяг вибірки  не фіксувати заздалегідь, а визначати по вже отриманим елементам вибірки (як у послідовному аналізі Вальда), то існує  - критерій, для якого (при заданій імовірності помилки 1-го роду) імовірність помилки 2-го роду не залежить від невідомого стандартного відхилення  (а залежить лише від різниці ).

 

Пояснення парадоксу

На першому кроці візьмемо вибірку , де  - деяке фіксоване число. Вибіркова дисперсія визначається формулою

 

 

Припустимо, що обсяг вибірки  залежить від величини  та заздалегідь фіксованого числа  наступним чином:

 

 

де дужки  означають цілу частину дійсного числа. Оберемо додатні числа  так, що

 

,  та ,

 

та спробуємо розрізнити гіпотези  та  за допомогою статистики

 

де

 

Очевидно, що при заданому  випадкова величина  нормально розподілена з математичним сподіванням  та дисперсією  З іншого боку розподіл величини  (для довільного ) збігається з розподілом суми квадратів  незалежних стандартних нормальних випадкових величин (тобто з хі-квадрат розподілом ), який не залежить від . Отже, розподіл величини  також не залежить від , тому  залежить лише від , але не від .

 

Зауваження

2.10.4.1 Розподіл випадкової величини  не є нормальним, оскільки  не число, а випадкова величина. (Якщо б значення стандартного відхилення було б відомим, та ми б поставили це значення замість , то розподіл випадкової величини  було б стандартним нормальним) Це чудове спостереження та аналіз випадкової величини  у 1908 р. опублікував Стьюдент, він же Уїльям Д. Госсет. (З 1899 р. він працював у Дубліні на пивоварному заводі Гіннесса, і його начальник наполіг на тому, щоб Госсет писав під псевдонімом) Досить довго ніхто не усвідомлював важливості статті Стьюдента. (Навіть у 1922 р.Р. Фішер був єдиним, як стверджував Стьюдент, хто використовував  - розподіл. У дійсності, саме Фішер вперше позначив розподіл Стьюдента через  у своїй книзі, яка вийшла у 1925 р. сам Стьюдент використовував символ , проте не для позначення величини , а для )

2.10.4.2 Визначення моменту зупинення спостережень у послідовному аналізі є суттю сучасної теорії оптимальних зупинок для різних процесів. Розглянувши вибірку як процес, ми встановлюємо зв'язок між математичною статистикою і теорією стохастичних процесів.

Парадокс перевірки гіпотез

 

Історія парадоксу

Б.В. Гнеденко в своїй книзі відмічає, що облік населення, проведений в Китаї у 2238 р. до нашої ери, показав, що доля новонароджених хлопчиків складала 50%. Джон Арбутнот (1667-1735), англійський математик, лікар і письменник, був першим, хто (це було в 1710 р) відмітив, що гіпотеза про рівне співвідношення народжених хлопчиків і дівчаток повинна бути відхилена, оскільки за демографічними даними за 82 роки (доступні на той час) хлопчиків щороку народжувалося більше, ніж дівчаток. Якби ймовірність народження хлопчика дорівнювала , то результат за 82 роки був би настільки малоймовірним , що його можна було б вважати практично неможливим. Отже, Арбутнот був першим, хто відхилив природню статистичну гіпотезу. Цей нематематичний парадокс зацікавив Лапласа. У 1784 р. він зі здивуванням виявив, що в декількох різних районах Франції доля новонароджених хлопчиків приблизно дорівнювала , а у Парижі це відношення дорівнювало . Лаплас був заінтригований такою різницею, але скоро знайшов для неї розумне пояснення: в загальну кількість новонароджених в Парижі включалися всі підкинуті немовлята, а населення передмість в більшості підкидало немовлят однієї статі. Коли Лаплас виключив підкинутих немовлят з загальної кількості, доля новонароджених хлопчиків стала близькою до .

У 1734 р. Французька академія присудила Данилу Бернуллі премію за дослідження по орбітам планет. За допомогою деякого критерію перевірки гіпотез Бернуллі намагався довести, що схожість орбіт планет є далеко не випадковою. З правила правої руки зрозуміло, що кожній орбіті відповідає деяка точка на одиничній сфері, і Бернуллі перевіряв гіпотезу про те, що розподіл цих точок на одиничній сфері рівномірний. У 1812 р. Лаплас досліджував схожу проблему. Він намагався застосувати статистичні методи для вирішення питання про те, яку з гіпотез слід прийняти: чи є комети звичайними елементами Сонячної системи, чи вони всього лиш “незвані” гості. В останньому випадку кути між орбітами планет і екліптою були б рівномірно розподілені на інтервалі від  до . Лаплас виявив, що комети не є звичайними елементами Сонячної системи. Основоположниками сучасної теорії перевірки статистичних гіпотез були К. Пірсон, Е. Пірсон, Р. Фішер і Є. Нейман.

Припустимо, що треба перевірити гіпотезу про те, що розподілом деякої випадкової величини є . (У проблемі Лапласа розподіл  був рівномірним на інтервалі ) Для вирішення цієї проблеми “міри узгодженості” К. Пірсон, Х. Крамер, Р. фон Мізес, А. М. Колмогоров, М. В. Смірнов та інші вчені, які працювали пізніше, запропонували кілька різних критеріїв, і виникла потреба порівнювати їх ефективності. Перші кроки до знаходження кращих методів прийняття рішень зробили Е. Пірсон і Є. Нейман. По-перше, вони ввели поняття альтернативної гіпотези, яка, взагалі кажучи, не є повним запереченням основної, нульової гіпотези. Розглянемо, наприклад, випадкову величину, що має нормальний розподіл з одиничною дисперсією і невідомим математичним сподіванням. Якщо нульова гіпотеза полягає в тому, що “математичне сподівання дорівнює ", а альтернативна - в тому, що “математичне сподівання дорівнює ", то обидві гіпотези, очевидно, не охоплюють всі можливі випадки. В 1933 р. Нейман і Пірсон показали, що для таких простих гіпотез (коли як нульова, так і альтернативна гіпотези визначаються одним розподілом) існує критерій, найбільш потужний в такому розумінні. При використанні статистичних критеріїв можливі помилки двох видів. Можна відхилити нульову гіпотезу, коли вона вірна, і припуститися помилки 1-го роду. З іншого боку, можна прийняти нульову гіпотезу, коли вона невірна, і припуститися помилки 2-го роду. Метод прийняття рішень (критерій), який базується на вибірці заданого об’єму, називається найбільш потужним критерієм, якщо для будь-якої заданої ймовірності помилки 1-го роду ймовірність помилки 2-го роду мала настільки, наскільки це можливо. (Зауважимо, що при фіксованому об’ємі вибірки сума ймовірностей помилок обох родів не може бути зробленою наскільки завгодно малою. Це є свого роду принципом невизначеності при перевірці гіпотез) Припустимо для простоти, що обидва розподіли (в нульовій і альтернативній гіпотезах) мають щільності. Тоді за основною лемою Неймана - Пірсона існує найбільш потужний критерій такого вигляду. Позначимо через  і  щільності розподілів вибірки  за умов, що вірною є відповідно нульова чи альтернативна гіпотези. Нульова гіпотеза приймається тоді і тільки тоді, коли де  - відповідна постійна.

(Для простоти припускається, що ймовірність того, що  дорівнює 0) Теорія Неймана - Пірсона стала основною при перевірці гіпотез, не позбавленою при цьому парадоксів. У 1950 р. Герберт Роббінс показав, що існує критерій, в певному розумінні більш потужний, ніж найбільш потужний критерій Неймана - Пірсона.

Парадокс

Припустимо, що випадкова величина  нормально розподілена з математичним сподіванням  і дисперсією 1. Нехай нульова гіпотеза полягає в тому, що , а альтернативна гіпотеза полягає в тому, що . На основі вибірки з одного елементу  найбільш потужним критерієм перевірки нульової гіпотези проти альтернативної гіпотези є: якщо , то нульова гіпотеза приймається, а альтернативна відхиляється; в протилежному випадку нульова гіпотеза відхиляється, а альтернативна приймається. В цьому випадку ймовірності помилок обох видів дорівнюють приблизно 16%, оскільки

 

 

Якщо скористатися цим критерієм в  незалежних випадках, то при великих  середня кількість помилкових рішень приблизно дорівнює . Оскільки в кожному випадку використовувався найбільш потужний критерій, то слід було б чекати, що середня кількість помилкових рішень ніколи не може бути меншою . Як не парадоксально, але наступний метод Роббінса показує, що це не так.

Нехай  - середнє арифметичне спостережень . Критерій Роббінса полягає в наступному: якщо , то  для всіх , якщо , то  для всіх , і, нарешті, якщо , то  або  в залежності від того, виконується чи ні нерівність

 

.

 

Цей метод дивує тим, що він об’єднує незалежні одну від одної задачі. Якщо істинне відношення тих , для яких , до тих , для яких , дорівнює 0, то при великих  (наприклад, для ) критерій Роббінса дає відповідь зі 100% надійністю; для відношення 0,1 ймовірність помилки (обох типів) складає 7%; для відношення 0,2 ймовірність помилки дорівнює 11%; для 0.3 - 14% і навіть для відношення 0,4 відсоток помилок менший 16% рівня найбільш потужного критерію. Метод Роббінса стає менш ефективним, ніж найбільш потужний критерій, лише у випадку відношення, близького до 0.5.

Пояснення парадоксу

Парадокс Роббінса показує, що навіть тоді, коли треба прийняти рішення про прийом чи відмову від продукції, яка надходить з різних незалежно працюючих фабрик, загальна кількість помилкових рішень буде в середньому меншою, якщо ми не будемо приймати рішення незалежно одне від другого.

У 1961 р. Джеймс і Стейн запропонували таку просту оцінку для математичного сподівання багатовимірного нормального розподілу

 

 де .

 

Тоді , але . Отже, оцінка  справді не є допустимою. Оцінка  переводить вектор  ближче до початку координат, а оскільки початок координат можна вибрати довільно, то оцінка

 

 

також краща, ніж , при будь якому виборі . Таким чином, оцінка Джеймса - Стейна залежить від вибору початку координат , а в той же час  від  не залежить. (Можна показати, що оцінка

 

 

навіть дещо краща, ніж )


Висновки

 

На думку Карла Пірсона, у математиці немає іншого такого розділу, в якому настільки легко можна було б робити помилки, як у теорії ймовірностей та математичній статистиці. Математична статистика багата на парадокси. Важливо розрізняти парадокси і софізми. Парадокси - це суперечні інтуїції або здоровому глузду, але вірні результати. Софізми - помилкові результати, одержані за допомогою міркувань, які формально здаються вірними. Розглянемо деякі парадокси математичної статистики.



Поделиться:


Последнее изменение этой страницы: 2021-08-16; просмотров: 78; Нарушение авторского права страницы; Мы поможем в написании вашей работы!

infopedia.su Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав. Обратная связь - 18.119.28.237 (0.099 с.)