Заглавная страница Избранные статьи Случайная статья Познавательные статьи Новые добавления Обратная связь FAQ Написать работу КАТЕГОРИИ: АрхеологияБиология Генетика География Информатика История Логика Маркетинг Математика Менеджмент Механика Педагогика Религия Социология Технологии Физика Философия Финансы Химия Экология ТОП 10 на сайте Приготовление дезинфицирующих растворов различной концентрацииТехника нижней прямой подачи мяча. Франко-прусская война (причины и последствия) Организация работы процедурного кабинета Смысловое и механическое запоминание, их место и роль в усвоении знаний Коммуникативные барьеры и пути их преодоления Обработка изделий медицинского назначения многократного применения Образцы текста публицистического стиля Четыре типа изменения баланса Задачи с ответами для Всероссийской олимпиады по праву Мы поможем в написании ваших работ! ЗНАЕТЕ ЛИ ВЫ?
Влияние общества на человека
Приготовление дезинфицирующих растворов различной концентрации Практические работы по географии для 6 класса Организация работы процедурного кабинета Изменения в неживой природе осенью Уборка процедурного кабинета Сольфеджио. Все правила по сольфеджио Балочные системы. Определение реакций опор и моментов защемления |
Использование мнк для нахождения параметров парной линейной регрессии↑ Стр 1 из 2Следующая ⇒ Содержание книги
Поиск на нашем сайте
Дня оценки параметров регрессионного уравнения наиболее часто используют метод наименьших квадратов (МНК). Метод наименьших квадратов дает оценки, имеющие наименьшую дисперсию в классе всех линейных оценок, если выполняются предпосылки нормальной линейной регрессионной модели. МНК минимизирует сумму квадратов отклонения наблюдаемых значений от модельных значений. Те мин отклонение прямой от точек.
1. Математическое ожидание случайного отклонения еi равно нулю: M(еi) = 0 для всех наблюдений. Данное условие означает, что случайное отклонение в среднем не оказывает влияния на зависимую переменную. В определенном наблюдении случайный член может быть положительным или отрицательным, но он не должен иметь систематического смещения. Выполнимость M(еi) = 0 влечет выполнимость:
2. Дисперсия случайных отклонений epsiloni постоянна: D(εi) = D (εj) = σ2 = const для любых наблюдений i и j. Условие независимости дисперсии ошибки от номера наблюдения называется гомоскедастичностью (homoscedasticity). Невыполнимость этой предпосылки называется гетероскедастичностью (heteroscedasticity). Поскольку D(ε)=M((εj - Mεj))2 = M(ε2), то эту предпосылку можно переписать в форме: M(е2i) = σ2. Причины невыполнимости данной предпосылки и проблемы, связанные с этим, подробно рассматриваются ниже. 3. Случайные отклонения εi и εj являются независимыми друг от друга для i ≠ j. Выполнимость этой предпосылки предполагает, что отсутствует систематическая связь между любыми случайными отклонениями. Величина и определенный знак любого случайного отклонения не должны быть причинами величины и знака любого другого отклонения. Выполнимость данной предпосылки влечет следующее соотношение:
Если данное условие выполняется, то можно говорить об отсутствии автокорреляци и. С учетом выполнимости предпосылки 1 данное соотношение можно переписать в виде:
Причины невыполнимости этой предпосылки и проблемы, связанные с ними, рассматриваются ниже. 4. Случайное отклонение должно быть независимо от объясняющих переменных. Обычно это условие выполняется автоматически, если объясняющие переменные не являются случайными в модели. Данное условие предполагает выполнимость следующего соотношения:
Заметим, что выполнимость этой предпосылки не столь критична для эконометрических моделей. 5. Модель является линейной относительно параметров. Для случая множественной линейной регрессии существенными являются еще две предпосылки. 6. Отсутствие мультиколлинеарности. Между объясняющими переменными отсутствует сильная линейная зависимость. 7. Случайные отклонения εi, i = 1, 2,..., n, имеют нормальное распределение. Выполнимость данной предпосылки важна для проверки статистических гипотез и построения интервальных оценок. Наряду с выполнимостью указанных предпосылок при построении классических линейных регрессионных моделей делаются еще некоторые предположения. Например: • объясняющие переменные не являются случайными величинами; • число наблюдений намного больше числа объясняющих переменных (числа факторов уравнения); • отсутствуют ошибки спецификации, т. е. правильно выбран вид уравнения и в него включены все необходимые переменные.
Согласно принципу метода наименьших квадратов, оценки и находятся путем минимизации суммы квадратов
по всем возможным значениям и при заданных (наблюдаемых) значениях. В результате применения МНК получаем формулы для вычисления параметров модели парной регрессии.
(3)
Такое решение может существовать только при выполнении услови что равносильно отличию от нуля определителя системы нормальных уравнений. Действительно, этот определитель равен Последнее условие называется условием идентифицируемости модели наблюдений, и означает, что не все значения совпадают между собой. При нарушении этого условия все точки, лежат на одной вертикальной прямой Оценки и называют оценками наименьших квадратов. Обратим внимание на полученное выражение для параметра. В это выражение входят суммы квадратов, участвовавшие ранее в определении выборочной дисперсии и выборочной ковариации так что, в этих терминах параметр можно получить следующим образом:
|
||||
Последнее изменение этой страницы: 2016-08-26; просмотров: 280; Нарушение авторского права страницы; Мы поможем в написании вашей работы! infopedia.su Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав. Обратная связь - 18.191.205.110 (0.007 с.) |