Доверительный интервал для зависимой переменной 


Мы поможем в написании ваших работ!



ЗНАЕТЕ ЛИ ВЫ?

Доверительный интервал для зависимой переменной



Одной из задач эк. моделир-я является прогнозир-е зависимой переменной при определённых знач-х независимой переменной. Пусть построено ур-е регрессии:

Необходимо на осн. данного ур-я предсказать условное мат. M (Y/xp) переменной Y при Х=хр. Значение является оценкой M (Y/xp).

Возникает вопрос как сильно может отклониться модельное значение от соответствующего условного мат. ожидания M (Y/xp). Покажем, что случ. величина имеет нормальное распределение, для этого исп-ем формулы для ci и di.

Следовательно случ. величина явл. линейной комбинацией нормальных случ. величин, значит и сама имеет норм. распределение. Найдём мат. ожидание и дисперсию данной случ. величины.

Поскольку по выборке определена быть не может, то вместо её подставим несмещённую оценку: , тогда получим выборочную исправленную дисперсию величины .

В дельнейшем будем исп-ть случ. величину , которое имеет распределение t-стьюдента с числом степеней свободы ν=n-2.

По заданному уравнению значимости α и числу степеней свободы определяем критич. точку ,n-2, кот. удовлетворяет след. условию .

Подставим значение вместо t→ ,n-2< ,n-2 =

P()=1-α

Выражение в скобках и определяет доверительный интервал для условного мат. ожидания .

 

 

11.Проверка общего кач-ва ур-ния регрессии. Мерой общего кач-ва ур-ния регрессии,т.е. соотв-ия ур-ния регрессии к стат. данным явл. коэф-т детерминации (R2),кот. определяется по след. формуле: R2=1-( ei2/ (yi -y¯)2). Выясним смысл коэф-тов детерминации: как известно, реальные значения зависимой переменной отлич. от модельных значений на величину ei: yi=yi^+ ei, i=1,n. Последнее соотнош-е можно переписать в виде:yi-y^=(yi^-y¯)+(yi-yi^), где yi- y¯ - отклонение i-ой наблю-ой точки от среднего значения; yi^-y¯ - - отклонение i-ой наблю-ой точки на линии регрессии от среднего значения; yi-yi^ - отклонение i-ой наблю-ой точки от модельного знач-я.

Возведем обе части в квадрат и просуммируем по всем n: (yi-y¯)2= (yi^-y¯)2+2* (yi^-y¯)2*ei+ (yi-yi^)2.

(yi-y¯)2 –полная сумма квадратов (меру разброса зависимой переменной относительно среднего значения).

(yi^-y¯)2 –обьясненная сумма квадратов (мера разброса, кот. объясняется с помощью регрессии).

(yi-yi^)2 –необъясненная сумма квадратов.

Разделим обе части последнего выражения на левую часть, получим:

1=( (yi^-y¯)2/ (yi-y¯)2)+( ei2/ (yi-y¯)2). Введем обозначения: R2= (yi^-y¯)2/ (yi-y¯)2, тогда получим исходную формулу. Коэф-т детерминации (R2) определяет долю разброса зависимой переменной, объяснимую ур-нием регрессии. 0≤R2≤1, чем ближе R2 к единице, тем лучше кач-во постр-ой регрессии. Можно показать, что R2=ryx2. Судить о кач-ве ур-ния регрессии можно и по средней ошибке аппроксимации, котор. опред-ся по формуле: A¯=1/n* Iyi-yi^/yiI*100%, если A¯≤10%, то построенное ур-ние регрессии качественно.

 

12. На любой экон. показатель чаще всего оказ. влияние не один, а неск. факторов. В этом сл. вместо парной регрессии рассм. мн. регрессия. M(Y/x1, x2,..., xm)=f(x1, x2, …, xm). Ур-е мн. регр. в общем виде Y=f(β, x)+ε, где β= β0, β1, …, βm - вектор теоретических коэфф-в, кот. нужно опред. X=(X1, X2, …, Xm) – в-р незав. перем. Теоретическое лин. ур-е множ. регр-и: Y = β0+ β1X1+ β2X2+…+ βmXm+ε, или в каждом конктреном случае yi= β0+ β1xi1+ β2xi2+…+ βmximi, i= . Число степеней свободы для множ. лин. регр-и равно ν=n-m-1. Если n>m+1, то возник. необх-ть оценивания теоретич. коэфф. регр-и. Как и в случае парной регр-и мы будем использ. метод наим. квадратов. Так и для парной регр-и должны вып-ся предпосылки Гаусса-Маркова. Но для множ. регр-и очень существ-ми явл. еще 2 предпосылки. Отсутствие мультиколлинеарности, т.е. м-ду незав. перем-ми должна отсутств. сильная лин. зав-ть. Случ. отклон-е εi, i= должны иметь норм. распределение εi ~ N(0, δ2). Как и в случ. парной регр-и истинные знач-я коэфф-в по выборке опред-ть невозможно, поэтому строится эмпирич. ур-е регр-и. =b0+b1x1+…+bmxm. Для кажд. наблюд-я мы получим yi= +ei i= . Для нахожд-я оценок b0, b1, …, bm исп-ся ф-ла Q(b0, b1, …, bm)= min. Данн. ф-я явл. квадратичной. Необх. усл-ем сущ-я минимума явл. =0 всех ее частичных производных

13. Расчет коэффициентов множ. регр. Представим данные набл-ий и соотв-ие коэф-ты в матр. форме:

у1 x11 x12... x1n

У= у2, Х= x21 x22... x2n,

у3 …

… x1m x2m …xmn

уn

 

b0 e1

B= b1, e= e2

… …

bm en

Ф-цию Q = в матр. форме можно предст. как произв-е - вектор строки на вектор-столбец е. А в свою очередь вектор-столбец е можно записать в виде: е= У-ХВ.

Тогда их ф-цию Q запишем в виде: Q= е=(У-ХВ)Т(У-ХВ)=УТУ-ВТХТУ-УТ ХВ+ВТХТ ХВ=УТУ-2 ВТХТУ+ ВТХТ ХВ

Мат-ки док-но, что в.-столбец частных производных ф-ции Q по оцениваемым парам-рам имеет вид:

. Приравняем =0, получим форм-лу для вычисл-я оц-к множ. лин. регр.:

()В=ХТУ => В=()-1 ХТУ.

 

 

3. Парная линейная регрессия -линейн. фун-ия между условн. мат. ожиданием- М(У/хi)зависимой переменной У и одной независим. переменной Х: (1)М(У/хi)=β0 + β1хi,i=1;n,где хi-знач-я независ. переменной в i-ом наблюдении.Чтоб показать,что кажд.индивидуальн.значение уi отклон-ся от соответств-го условн.мат.ожидания в (1) надо ввести случ-ое слагаемое εi: уi=М(У/хi)+εi01хii; i=1;n.←это наз-ся теоретич-й регресс-ой линейн.моделью. β01-теоретич-е коэф-ты регрессии; εi-теоретич-е случ-ое отклонение.Общий вид теоретич-й линейн. регресс-ой модели→ У= β01Х+εi.Чтоб определить значения теоретич.коэф-тов регрессии надо знать ХиУ генеральн.сов-сти,что практич-и невзможно.След-но,по выборке огранич-го объёма (хii),i=1;n мы строим эмпирич-е ур-ние регрессии.(2) = b0 + b1хi, i=1;n, где -оценка условн. мат.ожидания М(У/хi);b0b1-оценки теоретич.коэф-тов регрессии,кот.наз-ся эмпирич.коэф-ми.Следоват-но: уi= +ei,i=1;n, ei-оценка случайн. отклон-я εi.Т.к. генеральн.сов-ть практически всегда неизв-на,то оцененные парам-ры b0 и b1,от истинных знач-ий β0иβ1.

 

Задача сост-т в том,чтобы по конкретн.выборке найти b0 и b1такие,чтобы построен-ая линия регрессии явл-сь бы наилучш.среди др.,т.е. была бы ближаеш.к точкам наблюд-й по их сов-ти.



Поделиться:


Последнее изменение этой страницы: 2016-04-07; просмотров: 336; Нарушение авторского права страницы; Мы поможем в написании вашей работы!

infopedia.su Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав. Обратная связь - 18.217.67.16 (0.014 с.)