Оценивание параметров линейной модели множественной регрессии (лммр) при нормальном векторе случайных остатков методом максимального правдоподобия (ммп). 


Мы поможем в написании ваших работ!



ЗНАЕТЕ ЛИ ВЫ?

Оценивание параметров линейной модели множественной регрессии (лммр) при нормальном векторе случайных остатков методом максимального правдоподобия (ммп).



Задача: Пусть в схеме Гаусса-Маркова вектор случайных остатков с числовыми характеристиками , , имеет нормальный закон распределения. Требуется оценить параметры и модели методом максимального правдоподобия.

Решение: Будем предполагать, что объясняющие переменные в модели

детерминированные, матрицу полагаем известной. Из и сделанного предположения о числовых характеристиках и законе распределения вектора следует, что вектор тоже обладает нормальным законом распределения

с числовыми характеристиками ( и .

Для отыскания оценок параметров ММП составим функцию правдоподобия выборки

(
и вычисляем ее логарифм:

Ln L = - . Найдем его производные по аргументам и приравняем их к нулю:


Решим полученную систему уравнений. Сначала из первого уравнения (после умножения его на ) находим :

Затем подставляем его во второе уравнение системы и после умножения этого уравнения на находим = , где . Полученные величины образуют решение системы и являются искомыми ММП-оценками параметров.(эффективной и ассимптотически несмещенной)


 

33. Оценивание нелинейных по коэффициентам моделей множественной регрессии методом Гаусса-Ньютона (на примере модели динамического ряда с экспоненциальной функцией тренда).

 

Если нелинейная по коэффициентам функция регрессии операцией логарифмирования не трансформируется к линейной по коэффициентам, то возможен алгоритм линеаризации общей регрессионной модели, базирующийся на линеаризации ее гладкой (по предположению) функции регрессии в окрестности известных приближенных значений =() коэффициентов :

, где = Принимая обозначения , получим регрессионную модель с однородной линейной функцией регрессии

Оценив модель, можем получить оценки коэффициентов исходной модели:

= + , S

Каждая переменная линеаризованной модели является функцией объясняющих переменных исходной модели, от приближенных коэффициентов функция зависит как от параметров.

 

Рассмотрим модель динамического ряда с экспоненциальным трендом:

Стоит отметить, что функция регрессии является суммой нелинейной по коэффициентам функции тренда (показательной функции) и линейной по коэффициентам сезонной составляющей. Предстоит выполнить линеаризацию только показательной функции:

Шаг 1. Определяются приближенные значения коэффициентов показательной функции. Далее эти величины будут интерпретироваться как константы.

Шаг 2. Используя обозначения:

Составим спецификацию линеаризованной регрессионной модели:

Далее необходимо оценить следующие параметры модели:

Шаг 3. Составляем в рамках модели систему n уравнений наблюдений

Шаг 4. При помощи функции ЛИНЕЙН оцениваем МНК эту модель

Шаг 5. Используя правила, записываем МНК-оценку исходной модели

В данном случае оценка будет иметь смысл ожидаемого темпа прироста уровней эндогенной переменной за каждый квартал после устранения сезонной составляющей. По полученной модели может проведена проверка на адекватность модели.


34. Спецификация и оценивание нелинейных по коэффициентам моделей множественной регрессии со специальными функциями регрессии (на примере производственной модели с функцией Кобба-Дугласа).

 

Данная модель именуется производственной функцией Кобба-Дугласа. В ней Y – уровень выпуска продукции за принятый отрезок времени; K и L – уровни соответственно основного капитала и живого труда, использованные в процессе выпуска величины Y. Видно, что функция не линейна по коэффициентам a=( ,

Для того, чтобы прийти к уравнению, линейному по коэффициентам, используется операция логарифмирования:

Ln Y = ln + lnK + (1- )ln L

Функция LnY аргументов lnK и lnL линейна по коэффициентам , . В силу функциональной зависимости и уравнение можно еще упростить:

y= + , где y=ln Y – ln L=ln(); x=ln K – ln L= ln()

Случайный остаток v имеет смысл включить в виде сомножителя, например:

Где v>-1, u=ln(1+v); .

После подобных преобразований, получили модель парной регрессии:

Пусть случайный остаток u удовлетворяет всем предпосылкам теоремы Гаусса-Маркова. Пусть по обучающей выборке получена МНК-оценка преобразованной модели:

Прошедшая проверку адекватности. Для расчета прогноза по соответствующим значениям выполним:

1. Найдем = ln() и вычислим оптимальный прогноз величины = ln (:

2. Рассчитаем прогноз и стандартную ошибку величины :

= exp( S =

Представим оцененную исходную спецификацию:

Где коэффициенты вычислены по формулам

, ,

Все этапы по порядку:

Шаг 1. В процессе спецификации эконометрических моделей с нелинейными по коэффициентам стандартными функциями регрессии случайные остатки следует включать в поведенческие уравнения в виде соответствующих сомножите­лей. Затем поведенческое уравнение операцией логарифмирования трансформируется в модель линейной регрессии.

Шаг 2. Построив трансформированную линейную модель, следует обратным преобразованием (потенцированием) получить оценку исходной нелинейной модели.

Шаг 3. Прогноз эндогенной переменной исходной нелиней­ной модели можно строить либо при помощи прогноза ее логариф­ма, полученного по оценке трансформированной линейной модели, либо же по оценке исходной модели.

Ш а г 4. Стандартная ошибка прогноза рассчитывается по фор­муле S = .

35. Оптимальное точечное прогнозирование значений эндогенной переменной по линейной модели (случай гомоскедастичного и неавтокоррелированного случайного остатка) на примере модели Оукена.

Рассмотрим модель Оукена:

где - темп прироста ВВП, - изменение уровня безработицы, - случайный остаток. Пусть модель оценена МНК по выборке . Т.о. имеем,

Обозначим, значение экзогенной переменной, при котором необходимо вычислить прогноз ВВП. - прогноз, - наблюденное в реальности значение ВВП.

При наличии информации об объекте-оригинале (выборки), наилучший точечный прогноз вычисляется по правилу:

Стандартная ошибка прогноза: , где ,

В случае модели Оукена

Т.о. точность прогноза падает по мере удаления значения регрессора x от его выборочного среднего.


 



Поделиться:


Последнее изменение этой страницы: 2016-04-08; просмотров: 472; Нарушение авторского права страницы; Мы поможем в написании вашей работы!

infopedia.su Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав. Обратная связь - 3.133.121.160 (0.023 с.)