Интервальная оценка параметров уравнения парной регрессии. 


Мы поможем в написании ваших работ!



ЗНАЕТЕ ЛИ ВЫ?

Интервальная оценка параметров уравнения парной регрессии.



Интервальная оценка параметров уравнения парной регрессии.

 

 

 


Если в доверительный интервал попадает 0 – интервал оч большой, парметр недостоверен. Аналогично если слева +, справа –

 

12. Нелинейная регрессия (линеаризация, оценка параметров).

Если м/д экономическими явлениями существуют нелинейные соотношения, то они выражаются с помощью соответствующих функций.

Различают два класса:

1.нелинейные функции по переменным, но линейные по параметрам (гипербола,парабола,логарифмическая); 2.нелинейные и по переменным и по параметрам(степенная, показательная, экспоненциальная), сложнее привести к виду линейной.

В первом случае – нет сложностей с оценкой параметров. Они определяются как и в линейной с помощью МНК.

Сведение к линейной форме: Ex: Дана парабола y=a0+a1x+a2x²+e Заменив х=х1 и х²=х2 получим двухфакторное уравнение линейной регрессии. у=а0+а1х1+а2х2+е

Оценка качества модели регрессии на основе ошибки аппроксимации.

Фактические значения результативного признака отличаются от теоретических, рассчитанных по уравнению регрессии, т. е.y и ŷ.Чем меньше эти отличия, тем ближе теоретические значения к эмпирическим данным, тем лучше качество модели. Величина отклонений фактических и расчетных значений результативного признака (y-y^) по каждому наблюдению представляет собой ошибку аппроксимации. В отдельных случаях она может оказаться равной 0. Поскольку (y-y^) может быть величиной как положительной, так и отрицательной, ошибки аппроксимации для каждого наблюдения принято определять в процентах по модулю.

Для того,чтобы иметь общее суждение о качестве модели из относительных отклонений по каждому наблюдению, находят среднюю ошибку аппроксимации как среднюю арифметическую простую:


Она показывает близость фактических и расчетных значений, 5-7%-нормальная ошибка,свидетельствует о хорошем подборе модели к исходным данным.

 

 

14. Использование модели парной регрессии для прогнозирования. Производится точечный прогноз. Осуществляется путем подстановки в найденной уравнение регрессии прогнозного значения Xp: Ŷp=a+bxp. В прогнозе необходимо учесть: ошибку каждого конкретного значения(т.е.отклонение каждого значения), ошибку местоположения линии регрессии.

Точечный прогноз дополняется интервальным прогнозом. Определяется средняя ошибка прогнозного индивидуального значения y:

Строится доверительный интервал прогноза:

самый узкий доверительный интервал при x=xсредняя

Чем больше период прогноза, тем больше интервал и ошибка прогноза.

 

15. Визуальный анализ остатков. Одна из предпосылок МНК- это случайность остатков. В экономике большое значение придется анализу остатков. Можно использовать графический метод, т.е. используя визуальный анализ остатков.

Свойства остатков

· Отсутствие связи между остатками и объясняющей переменной.(может возникнуть проблема гетероскедастичности).

· Отсутствие связи между остатками и предсказанными значениями

· Математическое ожидание остатков равно нулю. В выборке

· Остатки имеют постоянную дисперсию. Дисперсия остатков равна единице. Постоянство дисперсии остатков называют гомоскедастичностью остатков. Если же дисперсия остатков непостоянна, то имеет место гетероскедастичность остатков.(это плохо)

· Остатки не коррелированны между собой.

· Остатки распределены по нормальному закону распределения

Остатки могут быть проанализированы разными способами и один из методов- графический:

1. случай гомоскедастичности(зависимость остатков от факторного признака)

 

2. гетероскедастичность

 

16. Смысл и значение множественной регрессии в эконометрических исследованиях. Выбор формы уравнения множественной регрессии. Основная цель множественной регрессии – построение модели с неск. факторами, определив при этом влияние каждого из них в отдельности совокупности их воздействия на результативные признаки. М. p. — метод многомерного анализа, посредством к-рого зависимая переменная (или критерий) Y связывается с совокупностью независимых переменных X посредством линейного уравнения: Y' = а + b1Х1 + b2Х2 +... + bkXk.

Наиболее часто используются:

· линейная ;

· степенная функция ;

· показательная функция ;

· экспонента ;

· гипербола .

Наиболее широко используются линейная и степенная функции.

В лин ф-ции параметры при х – коэф регрессии. Они характеризуют изменение рез-та с изменением соответствующего фактора на ед при неизменном значении др факторов. Свободный член уравнения множ лин регрессии (параметр а) вбирает в себя информацию о прочих неучитываемых в модели факторах. Его величина эк интерпретации не имеет.

В степ функции коэф b являются коэф эластичности. Они показывают, на сколько % в среднем изменится рез-т с изменением соответствующего фактора на 1% при неизменности действия др факторов.

Так же можно использовать и др нелинейные функции (экспоненту, гиперболу). Можно выбратьту фунцию, для которой остаточная дисперсия и ошибка аппроксимации минимальны, а коэф детерминации максимален. Однако чем сложнее функция, тм менее интерпретируемы ее параметры.

 

17. Отбор факторов в уравнение множественной регрессии. Важным вопросом является отбор факторов в модель и выбор исходного уравнения. При отборе факторов нужно соблюдать следующие условия:

· в модель нужно включать только существенные факторы, непосредственно формирующие результат

· факторы должны быть количественно измерены

· факторы не должны находиться в тесной взаимосвязи друг с другом (коэффициент корреляции должен быть менее 0,7)

Отбор факторов основан на:

· теоретическом анализе взаимосвязи результата с кругом факторов

· количественном анализе (на основе матрицы парных коэффициентов корреляции, матрицы частных коэффициентов корреляции, с помощью стандартизованных коэффициентов регрессии, на основе F, t- критериев)

Матрица парных коэффициентов корреляции:

  Y X1 X2 X3
Y        
X1 Ryx1      
X2 Ryx2 Rx1x2    
X3 Ryx3 Rx1x3 Rx2x3  

 

18. Оценка параметров уравнения множественной регрессии. Для оценки параметров уравнения множественной регрессии применяют МНК. При этом нелинейные функции приводят в линейному виду по параметрам.

Для двухфакторной модели можно воспользоваться следующими формулами:

 

 


b1,b2-коэффициенты регрессии (иногда коэффициенты условно-чистой регрессии)

МНК позволяет получить такие оценки параметров, при которых сумма квадратов отклонений фактических значений результативного признака от теоретических минимальна:

Условия применения МНК: 1) модель регрессии должна быть линейной по параметрам; 2) факторный признак х является заданной, а не случайной величиной; 3) значения ошибки (остатка)- случайные. Их изменение не образует определенной модели. Не должно быть взаимосвязи между фактором х и остатками (гомоскедастичность); 4) число наблюдений должно быть больше числа оцениваемых параметров (в 5-6 раз); 5) значения переменной x не должны быть одинаковыми.; 6) изучаемая совокупность должна быть однородной; 7) модель регрессии должна быть корректно специфицирована; 8) в модели не должно наблюдаться тесной взаимосвязи между факторами (это условие для множественной регрессии).

 

Частные F-критерии

По уравнению множественно регрессии оценивается значимость не только модели в целом, но и значимость дополнительного включения в модель соответствующего фактора.

Необходимость такой оценки связана с тем, что не каждый фактор, входящий в модель может существенно увеличить факторную вариацию. Кроме того в виду корреляции между факторами, значимость одного и того же фактора может быть различной в зависимости от последовательности включения в модель этого фактора.

Мерой для оценки целесообразности включения фактора в модель служит частный F-критерий. Частный F-критерий строится на сравнении пироста факторной дисперсии (на 1 степень свободы), обусловленный влиянием дополнительно включенного в модель фактора к остаточной дисперсии на 1 ст свободы по регрессионной модели.

 

SSe(1)остаточная сумма квадратов для модели без фактора xj

SSe(2) - остаточная сумма квадратов для модели с фактором xj

- прирост степеней свободы (=1 при добавлении 1 фактора)

 

Если Fфакт> Fтаб, то С вероятностью 0,95 можно утверждать, что включения фактора x1 после x2 целесообразно.

Fj= tb(j)^2

Можно построить частные таблицы дисперсионного анализа:

Источник вариации df Сумма квадратов отклонений SS Дисперсия на 1 степень свободы MS F-критерий
Регрессия со всеми факторами       0,96
В том числе с фактором x2      
Регрессия, обусловленная включением в модель фактора x1 после x2   32-25=7  
Остаток     7,33
Итого     -

 

Гетероскедастичность

Гетероскедастичность проявляется, если совокупность исходных данных включает качественно разнородные области. Гетероскедастичность означает неравную дисперсию остатков для разных значений x. Если имеет место гетероскедастичность, то:

o Оценки МНК будут неэффективными.

o Могут быть смещены оценки коэфф регрессии и они будут неэффективными.

o Сложно исп формулу станд ошибок, т.к она предполаг единую дисперсию остатков.

Проявление гетероскедастичности: - низкое значение коэффициента детерминации - станд ошибка занижена - низкое значение t-критерия - широкие доверительные интервалы   Меры по устранению: увеличение числа наблюдений - изменение функциональной формы модели - разделение совокупности на качественно однородные группы и проведение анализа в каждой группе - использование фиктивных переменных, учитывающих неоднородность - исключение из совокупности единиц, дающих неоднородность

Уайта

 

Параметры проверяют по t и F критериям, если уравн достоверно, значит есть гетероскедастичность.

 

Уравнения трендов

 

 

Ex: Модель Кейнса

 

 

 

 

50. Проблема идентификации. Необходимое условие идентификации (порядковое или счетное правило).

От коэф-в приведенной формы переходят к структурной форме модели, при этом сталкиваются с проблемой идентификации.

Идентификация модели – это соответствие между приведенной и структурной формами модели, позволяющее однозначно оценить структурные коэффициенты по приведенным коэффициентам модели

ü Модель идентифицируема, если число коэффициентов структурной модели равно числу коэффициентов приведенной модели и структурные коэффициенты однозначно определяются по приведенным коэффициентам.

ü Модель неидентифицируема, если число структурных коэффициентов больше числа приведенных коэффициентов. Модели, в которых в каждом уравнении системы участвуют все эндогенные и экзогенные переменные, имеющиеся в системе, всегда неидентифицируемы.

ü Модель сверхидентифицируема, если число приведенных коэффициентов превышает число структурных коэффициентов. В результате на основе коэффициентов приведенной модели можно получить несколько значений одного структурного коэффициента.

 

! Если хотя бы 1 из уравнений модели неидентифицируемо, то вся система называется НЕИДЕНТИФИЦИРУЕМОЙ.

Аналогично, сверхидентифицируемой.

Необходимое условие идентификации (порядковое или счетное правило).

На идентификацию проверяется каждое уравнение структурной формы.!Балансовые тождества, если они входят в систему, НЕ проверяются на идент-ю.

D-число предопределенных переменных невходящих в проверяемое уравнение, но присутствующих в системе (в др ур-ях системы)

Н-число эндогенных переменных в проверяемом уравнении.

· уравнение сверхидентифицируемо D+1>H

· уравнение идентифицируемо D+1=H

· уравнение неидентифицируемо D+1<H

Ex:

D+1=H

Первое уравнение: 2+1=3

Второе уравнение: 1+1=2

Третье уравнение: 2+1=3

! ТОЧНО ИДЕНТИФИЦИР МОДЕЛИ НЕОБХОДИМО ПРОВЕРИТЬ ТАК ЖЕ ПО ДОСТАТОЧНОМУ УСЛОВИЮ!

 

 

51. Достаточное (ранговое) условие идентификации.

Чтобы уравнение, входящие в систему одновременных уравнений было идентифицировано, необходимо и достаточно, чтобы ранг матрицы коэффициентов по отсутствующим в нем переменным был на единицу меньше числа эндогенных переменных в системе и определитель этой матрицы не был равен нулю.

Ex:

Первое уравнение: Н =3 и D =2, т. е. D+1=H

Определитель матрицы (detA) коэффициентов равен 0. Достаточное условие идентификации не выполняется. Уравнение неидентифицируемо

Второе уравнение: Н=2 и D=1, т.е. D+1=Н

detA≠0, ранг матрицы равен 2. Достаточное условие идентификации выполняется. Ур точно идентифицировано.

Уравнения Переменные  
  У3 Х1
  В13 А11
  -1 А31

 

Третье уравнение: Н=3 и D=2, т.е. D+1=Н

Уравнения     Переменные
I    
I I

 

detA=0. Достаточное условие идентификации не выполняется. Ур-е не идентифицировано.

Вся система неидентифицир-на.

52. Косвенный метод наименьших квадратов для оценки параметров структурной формы модели

Применяется для точно идентифицированных моделей.

Алгоритм:

· Строится приведенная форма модели.

· Для каждого уравнения приведенной модели традиционным МНК оцениваются параметры модели.

· Коэффициенты приведенной модели трансформируются в параметры структурной модели.

Ex:

Структурная форма

Допустим что уже доказали дост усл что система точно идент.

Приведенная форма:

y1=A1+B11X1+B12X2+V1

y2=A2+B21X1+B22X2+V2

 

Для получения параметров 1-го уравнения СФМ из 2-го ур-я ПФМ выражаем Х2 и подставляем в 1-е ур-е ПФМ.

Для получения параметров 2-го ур-я СФМ выразим из 1-го ур-я Х1 ПФМ и подставим во 2-е.

 

53. Двухшаговый метод наименьших квадратов для оценки параметров структурной формы модели

Применяется для идентифицированных и сверхидентифицированных моделей.

 

Первый шаг – построение приведенной формы модели (ПФМ). С помощью МНК находят числовые параметры каждого уравнения ПФМ.

Второй шаг - для каждого уравнения структурной формы модели (СФМ) выполняют следующие действия:

ü находят эндогенные переменные, являющиеся факторными признаками (стоят в правой части уравнения); (y1, y2)

ü для этих переменных определяют их выровненные (теоретические) значения, используя соответствующие уравнения ПФМ;(ŷ1, ŷ2)

ü находят параметры рассматриваемого уравнения СФМ обычным МНК, заменяя исходные значения эндогенных переменных-факторов их выровненными значениями.(y1à ŷ1, y2àŷ2).

Интервальная оценка параметров уравнения парной регрессии.

 

 

 


Если в доверительный интервал попадает 0 – интервал оч большой, парметр недостоверен. Аналогично если слева +, справа –

 

12. Нелинейная регрессия (линеаризация, оценка параметров).

Если м/д экономическими явлениями существуют нелинейные соотношения, то они выражаются с помощью соответствующих функций.

Различают два класса:

1.нелинейные функции по переменным, но линейные по параметрам (гипербола,парабола,логарифмическая); 2.нелинейные и по переменным и по параметрам(степенная, показательная, экспоненциальная), сложнее привести к виду линейной.

В первом случае – нет сложностей с оценкой параметров. Они определяются как и в линейной с помощью МНК.

Сведение к линейной форме: Ex: Дана парабола y=a0+a1x+a2x²+e Заменив х=х1 и х²=х2 получим двухфакторное уравнение линейной регрессии. у=а0+а1х1+а2х2+е



Поделиться:


Последнее изменение этой страницы: 2016-09-19; просмотров: 735; Нарушение авторского права страницы; Мы поможем в написании вашей работы!

infopedia.su Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав. Обратная связь - 18.119.160.154 (0.079 с.)