Анализ качества эмпирического уравнения множественной линейной регрессии 


Мы поможем в написании ваших работ!



ЗНАЕТЕ ЛИ ВЫ?

Анализ качества эмпирического уравнения множественной линейной регрессии



Проверка статистического качества оцененного уравнения регрессии проводится, с одной стороны, по статистической значимости параметров уравнения, а с другой стороны, по общему качеству уравнения регрессии. Кроме этого, проверяется выполнимость предпосылок МНК.

Сначала рассмотрим первые два вида проверок и связанные с ними вопросы. Некоторые предпосылки МНК и проверки их выполнимости будем рассматривать отдельно.

Как и в случае парной регрессии, статистическая значимость параметров множественной линейной регрессии с р факторами проверяется на основе t - статистики:

(или ), (20)

где величина называется стандартной ошибкой параметра bj(а). Она определяется так. Обозначим матрицу:

и в этой матрице обозначим j - й диагональный элемент как zjj'. Тогда выборочная дисперсия эмпирического параметра регрессии равна:

(21)

а для свободного члена выражение имеет вид:

(21’)

если считать, что в матрице Z-1 индексы изменяются от 0 до p. Здесь S2 несмещенная оценка дисперсии случайной ошибки e:

. (22)

Стандартные ошибки параметров регрессии равны:

, (или ) (23)

Полученная по выражению (20) t - статистика для соответствующего параметра имеет распределение Стьюдента с числом степеней свободы (п-р-1). При требуемом уровне значимости а эта статистика сравнивается с критической точкой распределения Стьюдента t(α; п-р-1) (двухсторонней).

Если | t |> t(α; п-р-1), то соответствующий параметр считается статистически значимым, и нуль - гипотеза в виде Н0:bj=0 или Н0:а=0 отвергается.

В противном случае (| t |< t(α; п-р-1)) параметр считается статистически незначимым, и нуль - гипотеза не может быть отвергнута. Поскольку bj, не отличается значимо от нуля, фактор хj линейно не связан с результатом. Его наличие среди объясняющих переменных не оправдано со статистической точки зрения. Не оказывая какого - либо серьёзного влияния на зависимую переменную, он лишь искажает реальную картину взаимосвязи. Поэтому после установления того факта, что коэффициент bj статистически незначим, переменную х j рекомендуется исключить из уравнения регрессии. Это не приведет к существенной потере качества модели, но сделает её более конкретной.

Строгую проверку значимости параметров можно заменить простым сравнительным анализом.

Если | t | ≤1, т.е. bj < т bj, то коэффициент статистически незначим.

Если 1<| t| ≤2, т.е. bj<2mbj, то коэффициент относительно значим. В данном случае рекомендуется воспользоваться таблицей критических точек распределения Стьюдента.

Если 2 < | t |≤3, то коэффициент значим. Это утверждение является гарантированным при

(п-р-1)>20 и α ≥ 0,05.

Если | t |>3, то коэффициент считается сильно значимым. Вероятность ошибки в данном случае при достаточном числе наблюдений не превосходит 0,001.

К анализу значимости коэффициента bj можно подойти по - другому. Для этого строится интервальная оценка соответствующего коэффициента. Если задать уровень значимости о, то доверительный интервал, в который с вероятностью (1-α) попадает неизвестное значение параметра βj'(α'), определяется неравенством:

(24)

или

. (25)

Если доверительный интервал не содержит нулевого значения, то соответствующий параметр является статистически значимым, в противном случае гипотезу о нулевом значении параметра отвергать нельзя.

Для проверки общего качества уравнения регрессии используется коэффициент детерминации R2, который в общем случае рассчитывается по формуле:

(25)

Он показывает, как и в парной регрессии, долю общей дисперсии у, объясненную уравнением регрессии. Его значения находятся между нулем и единицей. Чем ближе этот коэффициент к единице, тем больше уравнение регрессии объясняет поведение у.

Для множественной регрессии R2 является неубывающей функцией числа объясняющих переменных. Добавление новой объясняющей переменной никогда не уменьшает значение R2. Действительно, каждая следующая объясняющая переменная может лишь дополнить, но никак не сократить информацию, объясняющую поведение зависимой переменной.

В формуле (25) используется остаточная дисперсия, которая имеет систематическую ошибку в сторону уменьшения, тем более значительную, чем больше параметров определяется в уравнении регрессии при заданном объёме наблюдений п. Если число параметров (р+1) приближается к n, то остаточная дисперсия будет близка к нулю и коэффициент детерминации приблизится к единице даже при слабой связи факторов с результатом.

Поэтому в числителе и знаменателе дроби в (25) делается поправка на число степеней свободы остаточной и общей дисперсии соответственно:

(26)

Поскольку величина (25), как правило, увеличивается при добавлении объясняющей переменной к уравнению регрессии даже без достаточных на то оснований, скорректированный коэффициент (26) компенсирует это увеличение путем наложения «штрафа» за увеличение числа независимых переменных. Перепишем (26) следующим образом:

(27)

По мере роста p увеличивается отношение р/(п-р-1) и, следовательно, возрастает размер корректировки коэффициента R2 в сторону уменьшения.

Из (27) очевидно, что < R2 при р >1. С ростом p растет медленнее, чем R2. Другими словами, он корректируется в сторону уменьшения с ростом числа объясняющих переменных. При этом =R2 только при R2=1. может даже принимать отрицательные значения (например, при R2=0). Поэтому для корректировки (26) нет строгого математического обоснования.

Доказано, что увеличивается при добавлении новой объясняющей переменной тогда и только тогда, когда t - статистика для этой переменной по модулю больше единицы. Из этого отнюдь не следует, как можно было бы предположить, что увеличение означает улучшение спецификации уравнения. Тем не менее добавление в модель новых факторов осуществляется до тех пор, пока растет скорректированный коэффициент детерминации.

Обычно приводятся данные как по R2, так и по , являющиеся суммарными мерами общего качества уравнения регрессии. Однако не следует абсолютизировать значимость коэффициентов детерминации. Существует немало примеров неправильно построенных моделей, имеющих высокие коэффициенты детерминации. Поэтому коэффициент детерминации в настоящее время рассматривается лишь как один из ряда показателей, которые нужно проанализировать, чтобы уточнить строящуюся модель.

Анализ статистической значимости коэффициента детерминации проводится на основе проверки нуль – гипотезы Н0: R2=0 против альтернативной гипотезы H1: R2 >0. Для проверки данной гипотезы используется следующая F - статистика:

(28)

Величина F при выполнении предпосылок МНК и при справедливости нуль - гипотезы имеет распределение Фишера. Из (28) видно, что показатели F и R2 равны или не равны нулю одновременно. Если F=0, то R2=O, и линия регрессии является наилучшей по МНК, и, следовательно, величина; y линейно не зависит от х1, х2,...,хp. Для проверки нуль - гипотезы при заданном уровне значимости α по таблицам критических точек распределения Фишера находится критическое значение Fтабл( α ;p;n-p-1).. Если F>Fтабл,. нуль - гипотеза отклоняется, что равносильно статистической значимости R2 т.е. R2 >0.

Эквивалентный анализ может быть предложен рассмотрением другой нуль - гипотезы, которая формулируется как о: H 0: β1’=β2’=…=βp =0. Эту гипотезу можно назвать гипотезой об общей значимости уравнения регрессии. Если данная гипотеза не отклоняется, то делается вывод о том, что совокупное влияние всех p объясняющих переменных х1,,х2,...,хp на зависимую переменную у можно считать статистически несущественным, а общее качество уравнения регрессии невысоким.

Проверка такой гипотезы осуществляетсяна основе дисперсионного анализа сравнения объясненной и остаточной дисперсий, т.е. нуль-гипотеза формулируется как H0:Dфакт=Dост против альтернативной гипотезы H1:Dфакт=Dост. При этом строится F- статистика:

(29)

Здесь в числителе - объясненная (факторная) дисперсия в расчете на одну степень свободы (число степеней свободы 1 равно числу факторов, т.е. р). В знаменателе - остаточная дисперсия на одну степень свободы. Её число степеней свободы равно (п-р-1). Потеря (р+1) степени свободы связана с необходимостью решения системы (р+1) линейных уравнений при определении параметров эмпирического уравнения регрессии. Если учесть, что число степеней свободы общей дисперсии равно (п-1) то число степеней свободы объясненной дисперсии равна разности (n-1)- (п-р-1), т.е. р. Следует отметить, что выражение (29) эквивалентно (28). Это становится ясно, если числитель и знаменатель (29) разделить на общую СКО:

Поэтому методика принятия или отклонения нуль - гипотезы для статистики (29) ничем не отличается от таковой для статистики (28).

Анализ статистики F позволяет сделать вывод о том, что для принятия гипотезы об одновременном равенстве нулю всех коэффициентов линейной регрессии коэффициент детерминации R2 должен существенно отличаться от нуля. Его критическое значение уменьшается при росте числа наблюдений и может стать сколь угодно малым.

Например, пусть при оценке регрессии с двумя объясняющими переменными по 30 наблюдениям R2 =0,65. Тогда

По таблицам критических точек распределения Фишера найдем F (0.05; 2; 27)=3,36; F (0,01; 2; 27)==5,49. Поскольку Fнабл =25,05> Fкр как при 5% - ном, так и при 1% - ном уровне значимости, то нулевая гипотеза в обоих случаях отклоняется. Если в той же ситуации R2=0.4, то

.

Предположение о не значимости связи отвергается и здесь.

Другим важным направлением использования статистики Фишера является проверка гипотезы о равенстве нулю не всех коэффициентов регрессии одновременно, а только некоторой части этих коэффициентов. Это позволяет оценить обоснованность исключения или добавления в уравнение регрессии некоторых наборов факторов, что особенно важно при совершенствовании линейной регрессионной модели.

Пусть первоначально построенное по п наблюдениям уравнение регрессии имеет вид (4), и коэффициент детерминации для этой модели равен R12. Исключим из рассмотрения k объясняющих переменных. Не нарушая общности, предположим, что это будут k последних переменных. По первоначальным п наблюдениям для оставшихся факторов построим другое уравнение регрессии:

(30)

для которого коэффициент детерминации равен R 22. Очевидно, R22≤R12, т.к. каждая дополнительная переменная объясняет часть рассеивания зависимой переменной. Проверяя гипотезу h0:r12-r22=0, можно определить, существенно ли ухудшилось качество описания поведения зависимой переменной. Для этого используют статистику:

(31)

В случае справедливости h0 приведенная статистика имеет распределение Фишера с числом степеней свободы k и (п-р-1). Здесь R12 –R22 - потеря качества уравнения в результате отбрасывания k факторов; k - число дополнительно появившихся степеней свободы; (1 -R12)/(n- p-1) - необъясненная дисперсия первоначального уравнения.

Если величина (31) превосходит критическое Fкр = F{ α; k; n- р-1) на требуемом уровне значимости α, то нуль - гипотеза должна быть отклонена. В этом случае одновременное исключение из рассмотрения k объясняющих переменных некорректно, т.к. R12 существенно превышает R22. Это означает, что общее качество первоначального уравнения регрессии существенно лучше качества уравнения регрессии с отброшенными переменными, т.к. первоначальное уравнение объясняет гораздо большую долю разброса зависимой переменной. Если же, наоборот, Fнабл<Fкр это означает, что разность R12 – R22 незначительна и можно сделать вывод о целесообразности одновременного отбрасывания k факторов, поскольку это не привело к существенному ухудшению общего качества уравнения регрессии. Тогда нуль - гипотеза не может быть отброшена.

Аналогичные рассуждения можно использовать и для проверки обоснованности включения новых k факторов. В этом случае рассматривается следующая статистика:

(32)

Если она превышает критическое значение - Fкр, то включение новых факторов объясняет существенную часть не объясненной ранее дисперсии зависимой переменной. Поэтому такое добавление оправдано. Добавлять переменные, как правило, целесообразно по одной. Кроме того, при добавлении факторов логично использовать скорректированный коэффициент детерминации, т.к. обычный R2 всегда растет при добавлении новой переменной, а в скорректированном одновременно растет величина p, уменьшающая его. Если увеличение доли объясненной дисперсии при добавлении новой переменной незначительно, то может уменьшиться. В этом случае добавление указанного фактора нецелесообразно.

Кроме коэффициента детерминации R2, в уравнении множественной регрессии используется другой показатель, тесно связанный с R2. Это так называемый показатель множественной корреляции, равный корню квадратному из R2.

. (33)

Границы его изменения те же, что и в парной регрессии: от О до 1. Чем ближе его значение к единице, тем теснее связь результативного признака со всем набором исследуемых факторов.

Для линейного уравнения множественной регрессии формула индекса корреляции может быть представлена выражением:

(34)

где βj - стандартизованные коэффициенты регрессии, - парные коэффициенты корреляции результата с каждым из факторов.

Формула индекса множественной корреляции для линейной регрессии получила название линейного коэффициента множественной корреляции, или совокупного коэффициента корреляции.

При линейной зависимости определение совокупного коэффициента корреляции возможно без построения регрессии и оценки её параметров, а с использованием только матрицы парных коэффициентов корреляции:

(35)

где - определитель матрицы парных коэффициентов корреляции:

(36)

а -определитель матрицы межфакторной корреляции:

(37)

Определитель (37) остаётся после вычеркивания из матрицы коэффициентов парной корреляции первого столбца и первой строки, что и соответствует матрице коэффициентов парной корреляции между факторами.

Спецификация модели

Все предыдущие рассуждения и выводы, касающиеся классической множественной регрессии, основывались на предположении, что мы имеем дело с правильной спецификацией модели. Под спецификацией модели в данном случае (т.е. для модели линейной множественной регрессии при выполнении предпосылок МНК) будем понимать выбор объясняющих переменных. В этой связи важное значение приобретает рассмотрение двух вопросов, имеющих смысл именно во множественной регрессии, когда исследователь имеет дело с несколькими факторами: возможная мультиколлинеарность факторов и частная корреляция. Последняя особенно тесно связана с процедурами множественной регрессии того или иного набора факторов связано прежде всего с представлением исследователя о природе взаимосвязи моделируемого показателя с другими экономическими явлениями. Факторы, включаемые во множественную регрессию, должны отвечать следующим требованиям:

1. Они должны быть количественно измеримы. Если необходимо включить в модель качественный фактор, не имеющий количественного измерения, то ему нужно придать количественную определенность. Например, в модели урожайности качество почвы задается в виде баллов; в модели стоимости объектов недвижимости учитывается место нахождения недвижимости: районы могут быть проранжированы.

2. Факторы не должны быть коррелированы между собой и тем более находиться в точной функциональной связи.

Включение в модель факторов с высокой взаимной корреляцией, когда, например, для зависимости у=а+b1x1 +b2x2+e может привести к нежелательным последствиям - система нормальных уравнений может оказаться плохо обусловленной и повлечь за собой неустойчивость и ненадежность оценок коэффициентов регрессии.

Если между факторами существует высокая корреляция, то нельзя определить их изолированное влияние на результативный показатель и параметры уравнения регрессии оказываются неинтерпретируемыми. Так, в приведенной зависимости с двумя факторами предполагается, что факторы х1 и х2 независимы друг от друга, т.е. =0. Тогда можно говорить, что параметр b1 измеряет силу влияния фактора x1 на результат у при неизменном значении фактора х2. Если же =1, то с изменением фактора х1 фактор х2 не может оставаться неизменным. Отсюда b1 и b2 нельзя интерпретировать как показатель раздельного влияния x 1 и х2 на y.

Как было сказано ранее, добавление нового фактора в регрессии приводит к возрастанию коэффициента детерминации и уменьшению остаточной дисперсии. Однако эти изменения могут быть незначительны, и не каждый фактор целесообразно вводить в модель.

Таким образом, хотя теоретически регрессионная модель позволяет учесть любое число факторов, практически в этом нет необходимости. Отбор факторов производится на основе качественного теоретике — экономического анализа, Однако теоретический анализ часто не позволяет однозначно ответить на вопрос о количественной взаимосвязи рассматриваемых признаков и целесообразности включения фактора в модель. Поэтому отбор факторов обычно осуществляется в две стадии: на первой подбираются факторы, исходя из сущности проблемы; на второй - анализируется матрица показателей корреляции и устанавливается, какие из факторов наиболее тесно связаны с результатом, а какие - между собой.

Здесь эконометрист чаще всего сталкивается с проблемой мультиколлинеарности.

Под полной мультиколлинеарностью понимается существование между некоторыми из факторов линейной функциональной связи. Количественным выражением этого служит то обстоятельство, что ранг матрицы Х меньше, чем (р+1), а матрица (Х'Х) будет вырожденной, т.е. её определитель равен нулю, а обратной матрицы к ней не существует. В практике статистических исследований полная мультиколлинеарность встречается достаточно редко, т.к. её несложно избежать уже на предварительной стадии анализа и отбора множества объясняющих переменных.

Реальная (или частичная) мультиколлинеарность возникает в случаях существования достаточно тесных линейных статистических связей между объясняющими переменными. Точных количественных критериев для определения наличия или отсутствия реальной мультиколлинеарности не существует. Тем не менее, существуют некоторые эвристические рекомендации по выявлению мультиколлинеарности.

В первую очередь анализируют матрицу парных коэффициентов корреляции:

точнее, ту её часть, которая относится к объясняющим переменным. Считается, что две переменные явно коллинеарны, если . В этом случае факторы дублируют друг друга, и один из них рекомендуется исключить из регрессии. Предпочтение при этом отдаётся фактору, который при достаточно тесной связи с результатом имеет наименьшую тесноту связи с другими факторами.

Пусть, например, при изучении зависимости у=f(x1, x2, x3) матрица парных коэффициентов корреляции оказалась следующей:

Очевидно, что факторы х1 и х2 дублируют друг друга ()- Однако в модель следует включить фактор х2, а не х1, поскольку корреляция фактора х2 с у достаточно высокая (), а с фактором х3 слабая ().

Другим методом оценки мультиколлинеарности факторов может служить определитель матрицы парных коэффициентов корреляции между факторами (37). Обоснованием данного подхода служат такие рассуждения. Если бы факторы не коррелировали между собой, то в определителе (37) все внедиагональные элементы равнялись бы нулю, а на диагонали стояли бы единицы. Такой определитель равен единице. Если же, наоборот, между факторами существует полная линейная зависимость и все коэффициенты межфакторной корреляции равны единице, то определитель такой матрицы равен нулю. Следовательно, чем ближе к нулю определитель (37), тем сильнее мультиколлинеарность факторов и ненадежнее результаты множественной регрессии. И наоборот, чем ближе к единице величина (37), тем меньше мультиколлинеарность факторов.

Для оценки значимости мультиколлинеарности факторов выдвигается гипотеза . Доказано, что величина имеет приближенное распределение x2 с степенями свободы. Если то гипотеза Н0 отклоняется, мультиколлинеарность считается доказанной.

Другим методом выявления мультиколлинеарности является анализ коэффициентов множественной детерминации факторов. Для этого в качестве зависимой переменной рассматривается каждый из факторов. Например, коэффициент рассчитывается по следующей регрессии:

где первый фактор взят в качестве результативного признака, а остальные факторы - как независимые переменные, влияющие на первый фактор. Чем ближе такой R2 к единице, тем сильнее проявляется мультиколлинеарность факторов. Оставляя в уравнении регрессии факторы с минимальной R2, можно решить проблему отбора факторов. При этом рассчитывается статистика:

(39)

Если коэффициент статистически значим, то . В этом случае xj является линейной комбинацией других факторов, и его можно исключить из регрессии.

Перечислим основные последствия мультиколлинеарности:

1. Большие дисперсии оценок. Это затрудняет нахождение истинных значений определяемых величин и расширяет интервальные оценки, ухудшая их точность.

2. Уменьшаются t -статистики коэффициентов, что может привести к неоправданному выводу о несущественности влияния соответствующего фактора на зависимую переменную.

3. Оценки коэффициентов по МНК и их стандартные ошибки становятся очень чувствительными к малейшим изменениям данных, т.е. они становятся неустойчивыми.

4. Затрудняется определение вклада каждой из объясняющих переменных в объясняемую уравнением регрессии дисперсию зависимой переменной.

5. Возможно получение неверного знака у коэффициента регрессии.

Единого подхода к устранению мультиколлинеарности не существует. Существует ряд методов, которые не являются универсальными и применимы в конкретных ситуациях.

Простейшим методом устранения мультиколлинеарности является исключение из одной или нескольких коррелированных переменных. Здесь необходима осторожность, чтобы не отбросить переменную, которая необходима в модели по своей экономической сущности, но зачастую коррелирует с другими переменными (например, цена блага и цены заменителей данного блага).

Иногда для устранения мультиколлинеарности достаточно увеличить объем выборки. Например, при использовании ежегодных данных можно перейти к поквартальным данным. Это приведёт к сокращению дисперсии коэффициентов регрессии и увеличению их статистической значимости. Однако при этом можно усилить автокорреляцию, что ограничивает возможности такого подхода.

В некоторых случаях изменение спецификации модели, например, добавление существенного фактора, решает проблему мультиколлинеарности. При этом уменьшается остаточная СКО, что приводит к уменьшению стандартных ошибок коэффициентов.

В ряде случаев минимизировать либо вообще устранить проблему мультиколлинеарности можно с помощью преобразования переменных.

Например, пусть эмпирическое уравнение регрессии имеет вид:

где факторы коррелированы. Здесь можно попытаться опре­делить отдельные регрессии для относительных величин:

(40)

Возможно, что в моделях, аналогичных (40), проблема мультиколлинеарности будет отсутствовать.

Теперь рассмотрим другой вопрос, имеющий важное значение для проблем, связанных со спецификацией модели множественной регрессии. Это частная корреляция. С помощью частных коэффициентов корреляции проводится ранжирование факторов по степени их влияния на результат. Кроме того, частные показатели корреляции широко используются при решении проблем отбора факторов: целесообразность включения того или иного фактора в модель доказывается величиной показателя частной корреляции.

Частные коэффициенты корреляции характеризуют тесноту связи между результатом и соответствующим фактором при устранении влияния других факторов, включенных в уравнение регрессии.

Показатели частной корреляции представляют собой отношение сокращения остаточной дисперсии за счет дополнительного включения в модель нового фактора к остаточной дисперсии, имевшей место до введения его в модель.

Высокое значение коэффициента парной корреляции между исследуемой зависимой и какой - либо независимой переменной может означать высокую степень взаимосвязи, но может быть обусловлено и другой причиной, например, третьей переменной, которая оказывает сильное влияние на две первые, что и объясняет их высокую коррелированность. Поэтому возникает задача найти «чистую» корреляцию между двумя переменными, исключив (линейное) влияние других факторов. Это можно сделать с помощью коэффициента частной корреляции.

Коэффициенты частной корреляции определяются различными способами. Рассмотрим некоторые из них.

Для простоты предположим, что имеется двухфакторная регрессионная модель:

(41)

и имеется набор наблюдений (хi1, хi2, уi), . Тогда коэффициент частной корреляции между у и, например, х1 после исключения влияния х2 определяется по следующему алгоритму:

1. Осуществим регрессию у на х2 и константу и получим прогнозные значения: .

2. Осуществим регрессию х1 на х2 и константу и получим прогнозные значения: .

3. Удалим влияние х2 взяв остатки: и .

4. Определим выборочный коэффициент частной корреляции между у и х1 при исключении х2 как выборочный коэффициент корреляции между ey и e1.

(42)

Значения частных коэффициентов корреляции лежат в интервале [-1,1], как у обычных коэффициентов корреляции. Равенство нулю означает отсутствие линейного влияния переменной х1 на y.

Существует тесная связь между коэффициентом частной корреляции и коэффициентом детерминации R2:

(43)

где - обычный коэффициент корреляции.

Описанная выше процедура обобщается на случай, когда исключается влияние нескольких переменных. Для этого Достаточно переменную х2 заменить на набор переменных Х2 со храняя определение (42) (при этом можно в число исключаемых переменных вводить и у, определяя частную коррекцию между факторами).

Другой способ определения коэффициентов частной корреляции - матричный. Обозначив для удобства зависимую переменную как x0, запишем определитель матрицы парных коэффициентов корреляции в виде:

(44)

Тогда частный коэффициент корреляции определяется по формуле:

(45)

где Rii - алгебраическое дополнение для элемента rii в определителе (44).

Существует ещё один способ расчета - по рекуррентной формуле. Порядок частного коэффициента корреляции определяется количеством факторов, влияние которых исключается. Например, - коэффициент частной корреляции первого порядка. Соответственно коэффициенты парной корреляции называются коэффициентами нулевого порядка. Коэффициенты более высоких порядков можно определить через коэффициенты более низких порядков по рекуррентной формуле:

(46)

Если исследователь имеет дело лишь с тремя - четырьмя переменными, то удобно пользоваться соотношениями (46). При больших размерностях задачи удобнее расчет через определители, т.е. по формуле (45). В соответствии со смыслом коэффициентов частной корреляции можно записать формулу:

(47)

При исследовании статистических свойств выборочного частного коэффициента корреляции порядка k следует воспользоваться тем, что он распределен точно так же, как и обычный парный коэффициент корреляции, с единственной поправкой: объём выборки надо уменьшить на k единиц, т.е. полагать его равным n-k, а не п.

Пример. По итогам года у 37 однородных предприятий легкой промышленности были зарегистрированы следующие показатели их работы: у - среднемесячная характеристика качества ткани (в баллах), х1 - среднемесячное количество профилактических наладок автоматической линии; x2 - среднемесячное количество обрывов нити.

По исходным данным были подсчитаны выборочные парные коэффициенты корреляции:

=0,105; =0,024; = 0,996.

Проверка статистической значимости этих величин показала отсутствие значимой статистической связи между результативным признаком и каждым из факторов, что не согласуется с профессиональными представлениями технолога. Однако расчет частных коэффициентов корреляции дал значения:

=0,907; = - 0,906,

которые вполне соответствуют нашим представлениям о естественном характере связей между изучаемыми показателями.

Теперь остановимся на специальных процедурах спецификации модели множественной регрессии, которые обычно называются процедурами пошагового отбора переменных.

Иногда исследователь заранее знает характер зависимости исследуемых величин, опираясь на экономическую теорию, предыдущие результаты или априорные знания, и его задача состоит лишь в оценивании неизвестных параметров.

Классическим примером является оценивание параметров производственной функции Кобба - Дугласа, где заранее известно, что в качестве факторов выступают капиталовложения и трудозатраты.

Однако на практике чаще имеется большое число наблюдений различных независимых переменных, но нет априорной модели изучаемого явления. Возникает проблема, какие переменные включать в регрессионную схему.

В компьютерные пакеты включены различные эвристические процедуры пошагового отбора факторов. Основными пошаговыми процедурами являются:

- процедура последовательного присоединения;

- процедура последовательного присоединения - удаления;

- процедура последовательного удаления.

Рассмотрим вкратце одну из широко применяемых процедур, которая относится к процедурам последовательного присоединения. Это процедура «всех возможных регрессий».

Для заданного значения k (k =1,2,..., p-1) путем полного перебора всех возможных комбинаций из k объясняющих переменных, отобранных из исходного набора факторов х12,...xp, определяются такие переменные , для которых коэффициент детерминации с результатом был бы максимальным.



Поделиться:


Последнее изменение этой страницы: 2017-02-05; просмотров: 399; Нарушение авторского права страницы; Мы поможем в написании вашей работы!

infopedia.su Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав. Обратная связь - 52.15.112.69 (0.107 с.)