Оценка статистической значимости уравнения в целом. F-критерий Фишера 


Мы поможем в написании ваших работ!



ЗНАЕТЕ ЛИ ВЫ?

Оценка статистической значимости уравнения в целом. F-критерий Фишера



Оценка статистической значимости коэффициента r2:

Находим значение r2, далее выдвигаем гипотезы

Н0: r2 = 0

Н1: r2 ≠ 0

Fф = (r2*(n-2))/(1- r2)

Находим значение Fкр(1;n-2) по таблице.

Если Fф<Fкр, то нет оснований отвергать Н0 и мы ее принимаем на уровне значимости 5%, следовательно уравнение регрессии в целом статистически не значимо, в обратном случае мы отвергаем гипотезу Н0 и на уровне значимости 95% принимаем гипотезу Н1, значит, уравнение регрессии в целом статистически значимо.

Модель множественной регрессии.

Yt= B1 + B2xt2 + B3xt3 +…+ Bnxtn + Ut

Где t=1,…n (номер регрессора(строки))

xt1 = 1, при всех t =1,…n

Y = (y1, y2,…yn)T (nx1)

B = (B1, B2…Bn)T (kx1)

U = (U1, U2,…Un)T (nx1)

x11 x12 x13….x1k

X= x21 x22 x23….x2k (nxk)

………………..

xn1 xn2 xn3….xnk

Спецификация модели: y = xB + U

X – детерменированная матрица с максимальным рангом k

E(U) = 0, E(U*UT) = б2*In. Где In – единичная матрица

U~N(0, б2*In)

B^-вектор оценок неизвестных параметров

B^ = (xT*x)-1*xT*y

Коэффициент регрессии во множественной модели – это показатели силы связи, характеризующие абсолютное изменение результирующего признака при изменении факторного признака на одну единицу своего измерения, при фиксированном влиянии остальных факторов, включенных в модель.

Например. y^ = 116,7 + 0,112x1 – 0,739x2

у- расходы на питание (руб.)

x1- доход (руб.)

x2- ср цена (руб.)

Ограничения модели множественной регрессии.

В качестве ограничений к модели множественной регрессии можно использовать условия теоремы Гаусса - Маркова для модели множественной регрессии:

1. Спецификация модели: наша объясняемая переменная у должна быть связана с объясняющей переменной х след образом: Уt = β1хt1 +… + βkхtk + ut

2. Х(вектор) – детерминированная величина

Xs = (x1s, …,xns)т, s=1,…,k

3. Мат ожидание случайной компоненты равно 0, E(ut 2)= σ2 для любого t

4. Должна выполняться некоррелированность (отсутствие автокорреляции): E(ut; us)=0

5. ut принадлежит N(0; σ2)

 

Идентификация параметров множественной регрессии МНК.

Уравнение множественной регрессии выглядит следующим образом:

y=f(x1,…xk)= a + b1x1 +b2x2 +…+bkxk

На первом шаге идентификации параметров множественной регрессии мы находим их с помощью МНК по следующим формулам:

bii*(σyxi)

a=yср-b1*x1ср-…- bk*xkср

После их нахождения, мы оцениваем их статистическую значимость. Для этого мы сначала определяем наши гипотезы H1 и H0, а потом с помощью t- статистики проверяем их на статистическую значимость

Интерпретация параметров уравнения множественной регрессии

y=a + b1x1 +b2x2 +…+bkxk

Параметр а в уравнении множественной регрессии показывает, чему равна объясняемая переменная y, при условии что все объясняющие переменные равны нулю (экономически это может иметь или не иметь смысла).

Параметр bi показывает на сколько единиц изменится у в своих единицах измерения, если факторный признак хi увеличится на одну единицу своего измерения.

Если хi - фактическая переменная, то параметр bi показывает на сколько единиц изменится у в своих единицах измерения, если факторный признак хi увеличится на одну единицу своего измерения при прочих фиксированных переменных.

yt=β12xt23xt3+…+ βkxtkt

Если |βi|<|βi+1|, то сила влияния xti на yt больше, чем сила влияния xti+1 на yt.

 

Показатели тесноты связи во множественном регрессионном анализе – парные и частные коэффициенты корреляции.

Для анализа тесноты связи используются три группы коэффициентов:

1)парные

2) частные

3) множественные

Парные коэффициенты – это обычные линейные коэффициенты корреляции, которые характеризуют тесноту линейной связи между парами признаков.

rxjy = ((xjy)ср - хсрjуср)/σxjσy

rxjxs = (xjxsср - хсрjxsср)/σxjσxs

Мультиколлинеарность – ситуация, когда регрессоры тесно связаны между собой. Для оценки мультиколлинеарности составляется и анализируется матрица парных коэффициентов корреляции. В первой строке и в первом столбце записывают все факторы, начиная с зависимой переменной. В клетках матрицы рассчитывают соответствующие парные коэффициенты корреляции.

Парные коэффициенты корреляции между регрессорами так же могут принимать значения в пределах от -1 до 1 и имеют такую же интерпретацию как для случая корреляции с зависимой переменной.

Если rxjxs>0,7 тогда считают, что регрессоры коллинеарные, т.е. между регрессорами существует тесная связь. В этом случае нельзя определить изолированное влияние на результирующий показатель и параметры уравнения регрессии оказываются неинтерпретируемыми.

Возникает вопрос: нужно ли исключать коррелируемые регрессоры? Однозначного ответа на этот вопрос нет. Существует даже такая школа, представители которой считают, что и не нужно ничего делать, поскольку «так устроен мир». Другие эконометристы считают, что необходимо исключить «лишние» регрессоры, которые могут служить причиной мультиколлинеарности.

Одна из самых главных проблем, которую порождает мультиколлинеарность статистическая незначимость коэффициентов регрессии.

Во-первых, не всегда ясно, какие переменные являются «лишними». Во-вторых, удаление независимых переменных может значительно отразиться на содержательном смысле модели. В-третьих, удаление переменных, которые реально влияют на изучаемую зависимую пременную приводит к смещению МНК-оценок.

Теоретически регрессионная модель позволяет учесть любое число факторов, практически в этом нет необходимости.

Отбор факторов проводится на основе качественного теоретико-экономического анализа. Но теоретический анализ не всегда позволяет однозначно ответить на вопрос о количественной взаимосвязи рассматриваемых признаков и целесообразности включения их в модель.

Поэтому отбор факторов обычно проводится в два этапа:

1. Отбираются факторы, исходя из сущности проблемы

2. На основе матрицы парных коэффициентов корреляции и определения t-статистик для параметров регрессии.

Если факторы явно коллинеарны, то они дублируют друг друга и один из них рекомендуется исключить из регрессии. Предпочтение при этом отдается не фактору, более тесно связанному с результатом, а тому фактору, который при достаточно тесной связи с результатом имеет наименьшую тесноту с другими факторами.

Частные коэффициенты корреляции:

Для решения проблемы коллинеарности можно использовать частные коэффициенты, которые характеризуют тесноту связи между результатом и регрессором при фиксированном влиянии др факторов

ryx1x2 = (ryx1 – ryx1rx1x2)/√(1-ryx22)(1-rx1x22)

Исключаем тот регрессор, для которого частный коэффициент наименьший, т.к. учтено взаимное влияние регрессоров.

Стандартизированное уравнение множественной регрессии.

Возможен др. подход к построению модели множественной регрессии – это ур-е в стандартизированном масштабе.

Введем новые стандартиз. переменные по след правилу:

Zy = (y-y`)/бy,

где Zy - стандартиз завис перем,

(y-y`)/бy - среднеквадратич отклонение.

Zx1 = (x1-x`1x1

………………..

Zxk = (xk-x`kxk

Z`y = Z`x1 = Z`x2 =…= Z`xk = 0

бZy = бZx1 = бZx2 =…= бZxk = 1

Zy = B1Zx1 + B2Zx2 +…+BkZxk + U

ryx1 = B1 + B2rx2x1 + B3rx3x1+…+Bkrxkx1

ryx2 = B1rx1x2 + B2 + B3rx3x2+…+Bkrxkx2

…………………………………………..

ryxk = B1rx1xk + B2rx2xk+…+Bk

rx1x2 – парн коэфф коррел между соответствующими признаками

Zy = B`1Zx1 + B`2Zx2 +…+ B`kZxk

Стандартизированные коэффициенты регрессии показывают на сколько средних кв отклонений изм результат, если соотв фактор возрастет на одно среднее кв отклонение б.

В силу того, что что все переменные заданы как нормированные и центрированные стандартиз коэфф-ты регрессии Bj сравнимы между собой. На основе В коэфф-ов можно ранжировать факторы по силе их воздействия на рез-т.

Методы отбора факторов:

Проблема выбора оптимального состава регрессора решается на основе содержательного (качественного) и количественного анализа тенденций рассматриваемых процессов.На этапе сод анализа решается вопрос о целесообразности включения в модель тех или иных факторов исхода из эк теории и здравого смысла. Например, при моделировании макроэк произв функций, решается проблема установления самого факта взаимосвязи между явлениями. Однако каждое из явлений может быть описано разными факторами или даже комбинацией факторов. Поэтому на основании качественного анализа однозначно состав независимых переменных (регрессоров) установить нельзя, могут существовать альтернативные наборы независимых переменных.



Поделиться:


Последнее изменение этой страницы: 2016-06-23; просмотров: 372; Нарушение авторского права страницы; Мы поможем в написании вашей работы!

infopedia.su Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав. Обратная связь - 18.217.84.171 (0.017 с.)