Заглавная страница Избранные статьи Случайная статья Познавательные статьи Новые добавления Обратная связь FAQ Написать работу КАТЕГОРИИ: АрхеологияБиология Генетика География Информатика История Логика Маркетинг Математика Менеджмент Механика Педагогика Религия Социология Технологии Физика Философия Финансы Химия Экология ТОП 10 на сайте Приготовление дезинфицирующих растворов различной концентрацииТехника нижней прямой подачи мяча. Франко-прусская война (причины и последствия) Организация работы процедурного кабинета Смысловое и механическое запоминание, их место и роль в усвоении знаний Коммуникативные барьеры и пути их преодоления Обработка изделий медицинского назначения многократного применения Образцы текста публицистического стиля Четыре типа изменения баланса Задачи с ответами для Всероссийской олимпиады по праву Мы поможем в написании ваших работ! ЗНАЕТЕ ЛИ ВЫ?
Влияние общества на человека
Приготовление дезинфицирующих растворов различной концентрации Практические работы по географии для 6 класса Организация работы процедурного кабинета Изменения в неживой природе осенью Уборка процедурного кабинета Сольфеджио. Все правила по сольфеджио Балочные системы. Определение реакций опор и моментов защемления |
Основные предпосылки регрессионного анализаСодержание книги
Поиск на нашем сайте
1. Остатки и зависимая переменная у должна быть случайными величинами, а переменная хi – фиксированная или неслучайная величина (экзогенная), задаваемая извне. У – случайная (эндогенная) величина. 2. Математическое ожидание остатков Ei равно нулю: M(Еi) = 0. 3. Дисперсия остатков Ei постоянна для любого i: 4. Остатки Еi и Еj не коррелированны: Проверка предпосылок и предположений регрессионного анализа включает в себя следующие задачи: 1) оценка случайности зависимой переменной; 2) оценка стационарности и эргодичности зависимых и независимых переменных; 3) Проверка гипотезы о нормальности распределения ошибок E; 4) Обнаружение выбросов; 5) Проверка постоянства математического ожидания и дисперсии ошибок; 6) Оценка коррелированности остатков; 7) Обнаружение мультиколлинеарности. 44. Метод наименьших квадратов – сущность и использование для оценки параметров парной линейной регрессии Допустим, что вы имеете четыре наблюдения для х и у, представленные на рис. 2., и перед вами поставлена задача — определить значения a и b в уравнении (2.1). В качестве грубой аппроксимации вы можете сделать это, отложив четыре точки Р и построив прямую, в наибольшей степени соответствующую этим точкам. Это сделано на рис.2.3 Отрезок, отсекаемый прямой на оси у, представляет собой оценку a и обозначен а, а угловой коэффициент прямой представляет собой оценку b и обозначен b. С самого начала необходимо признать, что вы никогда не сможете рассчитать истинные значения a и b при попытке построить прямую и определить положение линии регрессии. Вы можете получить только оценки, и они могут быть хорошими или плохими. Иногда оценки могут быть абсолютно точными, но это возможно лишь в результате случайного совпадения, и даже в этом случае у вас не будет способа узнать, что оценки абсолютно точны. Это справедливо и при использовании более совершенных методов. Построение линии регрессии на глаз является достаточно субъективным. Более того, как мы увидим в дальнейшем, это просто невозможно, если переменная у зависит не от одной, а от двух или более независимых переменных. Возникает вопрос: существует ли способ достаточно точной оценки a и b алгебраическим путем? Первым шагом является определение остатка для каждого наблюдения. За исключением случаев чистого совпадения, построенная вами линия регрессии не пройдет точно ни через одну точку наблюдения. Например, на рис.4 (слайд 2.4) при х = x1 соответствующей ему точкой на линии регрессии будет R1 со значением у, которое мы обозначим вместо фактически наблюдаемого значения у1. Величина описывается как расчетное значение у, соответствующее х1. Разность между фактическим и расчетным значениями (у1 - )определяемая отрезком P1R1,, описывается как остаток в первом наблюдении. Обозначим его е1. Соответственно, для других наблюдений остатки будут обозначены как е2,, е3 и е4. Очевидно, что мы хотим построить линию регрессии таким образом, чтобы эти остатки были минимальными. Очевидно также, что линия, строго соответствующая одним наблюдениям, не будет соответствовать другим, и наоборот. Необходимо выбрать такой критерий подбора, который будет одновременно учитывать величину всех остатков. Существует целый ряд возможных критериев, одни из которых «работают» лучше других. Например, бесполезно минимизировать сумму остатков. Сумма будет автоматически равна нулю, если вы сделаете равным , а равным нулю, получив горизонтальную линию . В этом случае положительные остатки точно уравновесят отрицательные, но строгой зависимости при этом не будет. Один из способов решения поставленной проблемы состоит в минимизации суммы квадратов S. Для рис. 2.4 верно такое соотношение: S = (2.2) Величина S будет зависеть от выбора а и b, так как они определяют положение линии регрессии. В соответствии с этим критерием, чем меньше S, тем строже соответствие. Если S= 0, то получено абсолютно точное соответствие, так как это означает, что все остатки равны нулю. В этом случае линия регрессии будет проходить через все точки, однако, вообще говоря, это невозможно из-за наличия случайного члена. Существуют и другие достаточно разумные решения, однако при выполнении определенных условий метод наименьших квадратов дает несмещенные и эффективные оценки a и b. По этой причине метод наименьших квадратов является наиболее популярным в вводном курсе регрессионного анализа. После построения линии регрессии стоит более детально рассмотреть общее выражение для остатка в каждом наблюдении. Логика этого рассмотрения является достаточно простой. Однако на первый взгляд она может показаться абстрактной, поэтому более наглядно графическое представление. На рис. 5 (слайд 2.5) линия регрессии (2.3) построена по выборке наблюдений. Для того чтобы не загромождать график, показано только одно такое наблюдение: наблюдение i, представленное точкой Р c координатами (xi,,yi). Когда х=хi линия регрессии предсказывает значение у= что соответствует точке R на графике, где = a + bxi (2.4) Используя условные обозначения, принятые на рис.5, это уравнение можно переписать следующим образом: RT = ST + RS (2.5) так как отрезок ST равен а, а отрезок RS равен bxi Остаток PR — это разность между РТ и RT: PR = PT - RT = PT - ST - RS (2.6) Используя обычную математическую запись, представим формулу (6) в следующем виде: ei = yi - = yi - a - bxi. (2.7) Если бы в примере, показанном на графике (рис.5) мы выбрали несколько большее значение а или несколько большее значение b, то прямая прошла бы ближе к Р, и остаток ei был бы меньше. Однако это повлияло бы на остатки всех других наблюдений, и это необходимо учитывать. Минимизируя сумму квадратов остатков, мы попытаемся найти некоторое равновесие между ними. Рассмотрим случай, когда имеется п наблюдений двух переменных х и у. Предположив, что у зависит от х, мы хотим подобрать уравнение: = a + bx (2.8) Расчетное значение зависимой переменной и остаток ei, для наблюдения i заданы уравнениями (2.4) и (2.7). Мы хотим выбрать а и b, чтобы минимизировать величину S, где S = å ei2. Можно доказать, что величина S минимальна, когда (2.9) и (2.10) Варианты выражения для b. Так как (2.11) и (2.12) мы можем получить следующие выражения для b: (2.13) b = (2.14) В дальнейшем будет использоваться первоначальное определение b= Cov (х,y) /Var(х) и это выражение, вероятно, легче всего запомнить. На практике для вычисления коэффициентов регрессии используется компьютер, поэтому нет смысла запоминать альтернативные выражения. Зная определения выборочной дисперсии и ковариации, вы всегда сможете вывести эти выражения.
|
||||
Последнее изменение этой страницы: 2016-08-06; просмотров: 482; Нарушение авторского права страницы; Мы поможем в написании вашей работы! infopedia.su Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав. Обратная связь - 3.144.39.255 (0.006 с.) |