Factor Score Covariance Matrix 


Мы поможем в написании ваших работ!



ЗНАЕТЕ ЛИ ВЫ?

Factor Score Covariance Matrix



Factor    
1 2 ,997 8,775E-05 8,775E-05,982

Extraction Method: Principal Axis Factoring, Rotation Method: Varimax with Kaiser Normalization,

Factor Scores Method: Regression, Factor Scores

  Components
    Fl F2
Tl 1,14 1,18
Т2 ,98 -,90
Т3 -,40 -,70
T4 -1,10 ,99
T5 -,61 -,56

 

Для выполнения факторного анализа в программе STADIA на основании табл. 2 была подготовлена матрица чисел в стандарте, необходимом программе STADIA, и выполнен поворот варимакс. Переменные стоимость путевки, комфортабельность комплекса, температура воздуха, температура воды заменены буквенно-цифровыми обозначениями х1, х2, хЗ, х4 соответственно. Наблюдения (респонденты) пронумерованы от 0 до 4.

Вначале на экран выдается таблица «переменная — среднее — дисперсия» и матрица коэффициентов корреляции. Затем производится выделение главных компонент и выдается таблица, где для каждой компоненты приводятся: собственное значение, пропорциональное части общей дисперсии экспериментальных данных, приходящейся на данную компоненту (или объясняемой ею), процент полной дисперсии, приходящейся на каждую компоненту; процент накопленной дисперсии. Малозначимые компоненты, собственные значения которых составляют менее 2% от накопленной дисперсии, опускаются.

Далее идут: матрица собственных векторов, таблица координат объектов в новой системе факторов и матрица факторных нагрузок. Далее производится варимакс-вращение факторов в пространстве переменных, чтобы облегчить предметную интерпретацию факторов. Перед вращением по подтверждению выполняется нормализация факторных нагрузок (Кайзера), чтобы исключить влияние на результат переменных с большой общностью. По окончании вращения выдается таблица общностей и специфичностей каждого фактора и таблица новых факторных нагрузок.

Для выполнения факторного анализа с вращением варимакс программа SPSS (см. табл. 6) начинает работу с выдачи всех общностей (communality), равных на первом этапе работы КМК, и новые значения общностей после факторизации для каждой переменной (h2 в табл. 4). Для каждой переменной указываются собственные значения, процент дисперсии, объясняемой каждым фактором, и процент накопленной дисперсии. Все эти параметры вычисляются для каждого из четырех начальных факторов, выделенных значимых факторов и факторов после поворота. Далее для двух выделенных факторов распечатывается матрица факторных нагрузок до поворота. Матрица факторных нагрузок после поворота, соответствующая нагрузкам из табл. 4, дается вместе с матрицей факторного преобразования для ортогонального вращения варимакс с нормализацией по Кайзеру.

Процедуры факторизации и вращения

В настоящее время в распоряжении психологов имеются самые разнообразные методы факторизации (выделения факторов) и вращения, реализуемые с помощью различных компьютерных программ. За рубежом распространены программы BMDP, SAS и SYSTAT, однако мы подробно рассмотрим здесь методы, доступные с помощью программ STADIA и SPSS.

Методы факторизации

К методам факторизации относятся: методы главных компонент, главных факторов, максимального правдоподобия факторов, каноническая факторизация Рао, факторизация образов, альфа-факторизация, а также невзвешенная и общая (взвешенная) факторизация с помощью метода наименьших квадратов. Универсального пакета программ, в котором были бы реализованы все методы факторизации, не существует. Табл. 7 позволяет сориентироваться при выборе того или иного метода факторизации и того или иного статистического пакета. Чаще всего исследователи используют методы главных компонент и главных факторов, реализованные в большинстве программ.

Таблица 7

Методы факторизации

Метод фактори­зации Программа Цель анализа Особенности
Главные компо­ненты (ПС) SPSS, STA­DIA, SAS, BMDP4M, SYSTAT Максимизация дисперсии экспериментальных данных, объясняемой орто­гональными компонентами Математическое представление каждой наблю­даемой переменной через линейную комбина­цию компонент, включающих в себя общую, специфичную дисперсии и дисперсию ошибки измерения
Главные факторы (ГФА) SPSS, SAS. BMDP4M Наилучшая аппроксимация матрицы корреляций пере­менных с помощью выде­ленных ортогональных фак­торов Оценка общих факторов с исключением специ­фичной дисперсии и дисперсии ошибки изме­рения
Канони­ческий фактор­ный ана­лиз Рао (Рао)   Максимизация связи гипо­тетических ортогональных факторов с каждой наблю­даемой переменной Оценка общих факторов с исключением специ­фичной дисперсии и дисперсии ошибки изме­рения, анализируются канонические коэффи­циенты корреляции гипотетических факторов с переменными. Предусмотрена проверка факто­ров на значимость. Определяется максимальная связь между двумя группами переменных
Факто­ризация образов SPSS, SAS, BMDP4M Эмпирический факторный анализ Для каждой переменной строится образ, вы­числяемый как результат множественной регрессии всех остальных переменных — общность и антиобраз — характерная часть. Факторы вычисляются по дисперсии образов (т.е. общей дисперсии)
Метод макси­мального правдо­подобия SPSS, SAS, BMDP4M Оценка факторных нагрузок для популяции путем мак­симально точного воспроиз­ведения корреляционной матрицы, полученной на выборке Предполагается, что наблюдаемые переменные распределены нормально, а факторы ортого­нальны. Предусматривает проверку факторов на значимость, наиболее часто используется в конфирматорном анализе
Альфа-фактори­зация (Альфа) SPSS, SAS Максимизация воспроизво­димости генеральной сово­купности переменных за счет факторов Переменные считаются выборкой из генераль­ной совокупности переменных. Минимальное количество общих факторов оценивается по величинам собственных значений факторов и коэффициентов обобщенности а, которые должны быть больше 1 и 0, соответственно
Невзве­шенный метод наимень­ших квадра­тов SPSS, SAS Минимизация квадратичной остаточной матрицы корре­ляций Оценка соответствия вычисленных и наблюдае­мых коэффициентов корреляции производится по критерию минимума суммы квадратов от­клонения
Обобщен­ный ме­тод наи­меньших квадра­тов SPSS, SAS Вычисление весов перемен­ных в зависимости от их вклада в общую дисперсию, а затем (с учетом этих весов) минимизация квадратичной остаточной матрицы корре­ляций  
         

 

Все методы выделения факторов основаны на вычислении набора ортогональных компонент или факторов, по которым можно воспроизвести матрицу взаимосвязей R. Эти методы различаются критериями, используемыми для нахождения решения (это может быть максимизация дисперсии или минимизация остаточных корреляций). Но при большой выборке и большом количестве переменных различия в решении невелики. Фактически в качестве одного из тестов на устойчивость факторного решения можно использовать повторяемость результатов при обработке данных разными методами. В табл. 8 содержатся решения для одного и того же набора данных после выделения факторов различными методами с последующим вращением варимакс. Максимальная разница в оценке общностей для отдельных переменных при использовании различных методов факторизации = 0.08. Сходство полученных решений очевидно.

Обычно ни один из методов без вращения не дает решения, удовлетворительного с точки зрения последующей интерпретации. Исключение составляет метод Кайзера, включающий вращение в качестве подпрограммы.

Проводя факторный анализ, исследователь должен категорически отказаться от мысли о подтасовке данных. Обычно на предварительном этапе используется метод главных компонент, после чего применяется одна или несколько процедур, изменяющих количество факторов, общность оценок, методы вращения и т.д. Выбрав наиболее подходящий с содержательной точки зрения вариант, исследователь может считать анализ законченным.

Таблица 8

Результаты использования различных методов факторизации для одного и того же набора данных

 

Переменные Фактор 1 Фактор 2
ГК ГФА Рао Альфа ГК ГФА Рао Альфа
  Факторные нагрузки до поворота
1 .58 .63 .70 .54 .68 .68 -.54 .76
2 .51 .48 .56 .42 .66 .53 -.47 .60
3 .40 .38 .48 .29 .71 .55 -.50 .59
  .69 .63 .55 .69 -.44 -.43 .54 -.33
  .64 .54 .48 .59 -.37 -.31 .40 -.24
  .72 .71 .63 .74 -.47 -.49 .59 -.40
  .63 .51 .50 .53 -.14 -.12 .17 -.07
  .61 .49 .47 .50 -.09 -.09 .15 -.03
Факторные нагрузки после поворота (варимакс)
  .15 .15 .15 .16 .89 .91 .87 .92
  .11 .11 .10 .12 .83 .71 .72 .73
  -.02 .01 .02 .00 .81 .67 .69 .66
  .82 .76 .78 .76 -.02 -.01 -.03 .01
  .74 .62 .62 .63 .01 .04 .03 .04
  .86 .86 .87 .84 .04 .02 -.01 -.03
  .61 .49 .48 .50 .20 .18 .21 .17
  .57 .46 .45 .46 .23 .20 .20 .19
                   

Математические различия методов главных компонент и факторного анализа. В первой главе мы указали на принципиальное сходство методов главных компонент и факторного анализа с точки зрения получения содержательных результатов, однако используемые в этих методах модели различаются с точки зрения математики. Обратим внимание на эту разницу.

При проведении анализа одним из самых важных решений является выбор между методом главных компонент и факторным анализом. Математически различие между ними отражается в числах, стоящих на главной диагонали матрицы взаимосвязей, где располагаются показатели взаимосвязи переменных самих с собой. В факторном анализе, как и в методе главных компонент, анализируемая дисперсия есть сумма величин, стоящих на главной диагонали. В методе главных компонент на главной диагонали расположены единицы и анализируется дисперсия, соответствующая количеству первичных переменных. Каждая переменная добавляет свою долю дисперсии. На главной диагонали матрицы взаимосвязей в соответствующем номеру переменной столбце (и строке) ставится 1. Вся дисперсия распределяется по компонентам, включая дисперсию ошибки измерения и дисперсию, специфичную для каждой наблюдаемой переменной. Поэтому если для дальнейшего анализа сохраняются все компоненты, то они в точности дублируют (воспроизводят) наблюдаемую матрицу взаимосвязей и стандартизированные значения по наблюдаемым переменным.

В факторном анализе для каждой переменной анализируется только общая дисперсия, присущая сразу нескольким наблюдаемым переменным, и не включаются дисперсия ошибки измерения и специфичная дисперсия какой-то отдельной переменной. Такой подход основывается на основном постулате факторного анализа, что эти дисперсии ухудшают общую картину изучаемого явления. Общая дисперсия оценивается общностями, стоящими на главной диагонали матрицы взаимосвязей и принимающими значения от 0 до 1[9]. Факторное решение выбирается на основе переменных с высокими общностями. Сумма общностей (СКН по всем переменным) — это дисперсия, объясняемая факторами в меньшей степени, чем общая дисперсия наблюдаемых переменных. Поскольку специфичная и ошибочная дисперсии опускаются, линейная комбинация факторов аппроксимирует, но не дублирует наблюдаемую матрицу взаимосвязей и значения по наблюдаемым переменным.

Таким образом, можно сказать, что основной объект анализа в методе главных компонент — это дисперсия, а в факторном анализе — ковариации (общности). Метод главных компонент ориентирован на выделение малого набора ортогональных главных компонент таким образом, чтобы они объясняли максимум дисперсии для анализируемого набора данных. Цель факторного анализа — при помощи малого набора ортогональных факторов воспроизвести матрицу взаимосвязей. С математической точки зрения метод главных компонент дает единственное решение, тогда как разные виды факторного анализа дают несколько решений для одного и того же набора данных.

Выбор между методом главных компонент и факторным анализом зависит от того, какая из моделей с нашей точки зрения наилучшим образом описывает набор исходных данных и удовлетворяет цели исследования. Если мы хотим построить модель, не учитывающую разнообразие ошибок и специфичные особенности проведенного эксперимента, то нам следует предпочесть факторный анализ. Но если мы хотим эмпирически обобщить именно наш набор данных, то в этом случае предпочтителен метод главных компонент[10].

Метод главных компонент ориентирован на выделение малого набора ортогональных главных компонент таким образом, чтобы они объясняли максимум дисперсии для анализируемого набора данных. Первая главная компонента — это линейная комбинация наблюдаемых переменных, которая в максимальной степени разделяет испытуемых, максимизируя дисперсию их компонентных значений. Вторая компонента формируется из остаточных показателей взаимосвязей (корреляций) и представляет собой линейную комбинацию наблюдаемых переменных, объясняющую максимум вариативности, не взаимосвязанной с первой компонентой. Далее аналогично (по индукции) выделяются следующие компоненты, также объясняющие максимум вариативности остаточных корреляций и ортогональные для всех компонент, выделенных на предыдущих шагах.

Главные компоненты упорядочены, причем первая объясняет наибольшую долю дисперсии, а последняя — наименьшую. Решение является единственным, и если сохранить все компоненты, то можно точно воспроизвести наблюдаемую матрицу взаимосвязей. Поскольку компоненты ортогональны, их анализ другими методами (например, в качестве зависимых переменных в многофакторном дисперсионном анализе — MANOVA) может значительно облегчить интерпретацию результатов.

Если исследователь хочет в первую очередь сократить большое количество переменных до малого количества компонент, то ему следует выбрать метод главных компонент. Этот метод рекомендуется применять на первом этапе факторного анализа, так как с его помощью можно определить возможное количество и природу факторов. Метод главных компонент реализован практически во всех программах факторного анализа.

Метод главных факторов отличается от метода главных компонент по способу оценки взаимосвязей, находящихся на главной диагонали наблюдаемой матрицы. Эти оценки выполняются с помощью итерационной процедуры. В качестве начальных значений итерационного процесса выбираются квадраты коэффициентов множественной корреляции (КМК) каждой переменной со всеми другими переменными. Как и в случае метода главных компонент, цель анализа — объяснение максимума ортогональных дисперсий набора данных каждым последующим фактором. Метод главных факторов широко распространен (и прост для понимания) и не вступает в противоречие с факторно-аналитической моделью, в которой анализируется только общая дисперсия и исключаются специфичные дисперсии и дисперсии ошибок. Но поскольку цель состоит в получении факторов, объясняющих максимально возможную дисперсию переменных, метод главных факторов в некоторых случаях проигрывает другим методам факторизации с точки зрения воспроизведения матрицы взаимосвязей. Выбирая то или иное решение, следует обращать внимание на оценку общностей. Метод главных факторов реализован в большинстве программ факторного анализа.

Факторный анализ образов. В этом методе общая часть каждой переменной вычисляется как результат множественной регрессии всех остальных переменных (подобно тому, как это происходит при подсчете КМК). То есть в общей части дисперсии каждой переменной учитывается только то, что оказалось взаимосвязанным (отраженным, включенным) с другими переменными. Можно сказать, что общая часть наблюдаемой переменной — это ее образ в других переменных (отсюда и название метода). Дополнение до наблюдаемой переменной (включающее все, что не вошло в образ) составляет антиобраз — характерную часть, независимую от других переменных. Обе части переменной, которые могут быть однозначно определены по матрице исходных данных, далее рассматриваются отдельно.

Значения для каждой переменной вычисляются с помощью множественной регрессии. Все переменные по очереди выступают в качестве зависимых от всех остальных переменных. В качестве показателей взаимосвязей в матрице взаимосвязей используются ковариации. Интерпретируя результаты, следует помнить, что вычисляемые этим методом факторные нагрузки также интерпретируются как ковариации между переменными и факторами. Выделение факторов с помощью анализа образов — своеобразный компромисс между методами главных компонент и главных факторов. Подобно методу главных компонент, анализ образов дает математически единственное решение, поскольку на единичной диагонали матрицы взаимосвязей расположены фиксированные величины. Подобно главным факторам, величины на диагонали являются общностями, не содержащими специфичных и ошибочных дисперсий. Метод анализа образов реализован в компьютерных программах SPSS, BMDP и SAS.

Метод максимального правдоподобия. Процедура выделения факторов методом максимального правдоподобия была разработана Д.Лоули (Lawley, 1940). Заметим, что методы факторного анализа всегда применяются к выборочным матрицам взаимосвязей, но интерпретация ведется обычно так, как если бы речь шла о генеральной совокупности, из которой взята выборка. В методе максимального правдоподобия проводится различие между выборочной матрицей взаимосвязей, полученной на основе экспериментальных данных, и гипотетической матрицей, соответствующей генеральной совокупности, из которой взята исследуемая выборка. Эту гипотетическую матрицу теоретически можно было бы получить, если измерить значения анализируемых переменных (например, путем опроса) по всей популяции в целом. При этом предполагается, что наблюдаемые переменные распределены нормально, а факторы ортогональны друг другу. Величины факторных нагрузок для генеральной совокупности оцениваются путем вычисления нагрузок, максимизирующих вероятность получения наблюдаемой матрицы взаимосвязей, вычисленной на основе данных по выборке. В связи с ограничениями, установленными для показателей взаимосвязей (корреляций) переменных, популяционные оценки для факторных нагрузок вычисляются таким образом, чтобы получить наибольшую вероятность совпадения с корреляционной матрицей, вычисленной по выборочным данным. Этот метод также максимизирует совпадение наблюдаемых и вычисленных корреляций между переменными и факторами, предусматривает проверку факторов на значимость, наиболее часто используется в конфирматорном анализе.

Метод реализован в большинстве компьютерных программ (BMDP, SPSS, SYSTAT и SAS). В пакете BMDP этот метод дает приемлемые результаты в случае небольшого количества переменных и несингулярной корреляционной матрицы.

Метод невзвешенных наименьших квадратов ставит целью минимизацию квадратов остаточной матрицы взаимосвязей, вычисляемой как разность между наблюдаемой и воспроизведенной матрицами взаимосвязей (корреляционными). При этом минимизируются только внедиагональные остатки. Минимизация же полной остаточной матрицы, включая диагональные члены, приводит к обычному методу главных факторов. Операция исключения диагональных членов имеет большое значение, так как диагональные элементы выборочной корреляционной матрицы (значения общностей) не задаются, а должны определяться в ходе решения совместно с факторными нагрузками. Таким образом, факторизация по методу невзвешенных наименьших квадратов может быть рассмотрена как особый случай метода главных факторов, в котором общности оцениваются после выбора решения.

Эта процедура, изначально получившая название процедуры минимальных остатков, была разработана А.Комри (Соmrеу, 1962), а позднее модифицирована Г.Харманом и У.Джонесом (Harman, Jones, 1966). Она реализована в программах SPSS и SAS.

Обобщенный метод (взвешенных) наименьших квадратов отличается от предыдущего «невзвешенного» метода тем, что внедиагональная минимизация квадратичных различий между наблюдаемыми и воспроизведенными корреляционными матрицами выполняется с введением специальных весовых коэффициентов для каждой переменной. Те переменные, у которых общая дисперсия составляет существенную долю по сравнению со специфичной дисперсией, получают большие весовые коэффициенты, чем переменные, у которых специфичная дисперсия преобладает над общей. Другими словами, реализуется принцип, согласно которому переменные, не связанные сильно с другими переменными в имеющемся наборе данных, не очень важны для решения. Этот относительно новый метод факторизации заложен в программы SPSS и SAS.

Альфа-факторный анализ. Идея альфа-факторного анализа, предусмотренного в программах SPSS и SAS, возникла в рамках психометрических исследований. В случае альфа-факторного анализа измеряемые переменные считаются выборкой из генеральной совокупности переменных и на основании данных по этим переменным у популяции индивидов пытаются судить о значениях всей генеральной совокупности переменных.

Коэффициент обобщенности а, под которым понимается квадрат коэффициента корреляции наблюдаемой переменной с действительной теоретической переменной (взятой из генеральной совокупности всех мыслимых величин) — мера, заимствованная из дсихометрики для оценки надежности результатов вычислений, выполненных в различных ситуациях. Этот коэффициент отражает общую долю дисперсии наблюдаемой переменной и ее действительной величины. Коэффициент обобщенности представляет собой расширение понятия надежности.

Кайзер применил это понятие к факторному анализу. Основная идея метода α-факторного анализа состоит в выделении факторов, обнаруживающих максимальную корреляцию с соответствующими факторами генеральной совокупности переменных. То есть задача состоит в том, чтобы найти такие факторы, которые в максимальной степени позволили бы воспроизвести генеральную совокупность переменных.

Подобно главным компонентам, альфа-факторы выделяются в порядке уменьшения их общности. С помощью специальных итерационных процедур оцениваются общности, имеющие максимальный коэффициент альфа. (Иногда значения превышают 1.0.) BMDP не выполняет альфа-факторизацию, но в качестве опции распечатывает альфа-статистику.

Возможно, самое большое преимущество этой процедуры в том, что она фокусирует внимание исследователя на проблеме выбора переменных из области всех возможных переменных, связанных с областью исследования. Однако среди исследователей этот метод, а также класс задач, решаемых с его помощью, мало известны.

Канонический факторный анализ Рао. Задачей канонического факторного анализа Рао (описание метода см.: Rao, 1955) является определение максимальной связи, определяемой с помощью канонической корреляции между двумя группами переменных, измеряемых у одних и тех же испытуемых. Важный вопрос этого метода — оценка и определение факторов по наблюдаемым переменным с наибольшей точностью.

Типы вращения

Выделенные в результате факторизации факторы в большинстве случаев трудно интерпретировать. Чтобы получить более осмысленное и легче интерпретируемое решение, рекомендуется использовать вращение. При этом следует помнить, что математически (с точки зрения соответствия между наблюдаемой и воспроизведенной матрицами взаимосвязей) решения, отличающиеся друг от друга с точностью до поворота, эквивалентны между собой в том смысле, что вращение не дает возможности улучшить качество математического соответствиямежду наблюдаемой и воспроизведенной матрицами взаимосвязей.

Подобно тому, как различные методы факторизации при хорошем наборе данных в большинстве случаев дают сходные результаты, различные методы вращения при верном определении структуры взаимосвязей, как правило, дают сходные результаты. Другими словами, при хорошей факторизации устойчивое решение с большой степенью вероятности будет так или иначе получено вне зависимости от того, какой из видов вращения использовался.

Прежде всего следует выбрать вид вращения — ортогональное или косоугольное. В первом случае факторы остаются ортогональными друг другу, т.е. независимыми. Ортогональное решение легче поддается интерпретации и описанию. Но если исследовательская гипотеза не предполагает независимости базисных факторов, такое вращение может исказить реальность. Если исследователь уверен, что базисные факторы взаимосвязаны друг с другом, он должен использовать косоугольное вращение, которое имеет концептуальные преимущества, но на практике не очень удобно для интерпретации, описания и изложения результатов.

В табл. 9 описаны варианты вращений, реализованные в наиболее распространенных программах. Читателю, заинтересовавшемуся этой проблемой, рекомендуется следующая литература: Харман, 1972; Gorsuch, 1983; Mulaik, 1972. Особенно трудолюбивые могут освоить метод ручного вращения (Comrey, Lee, 1992).

Таблица 9

Методы вращения

Метод поворота Программа Цели анализа Комментарии
Варимакс (Ортогональное) SPSS, STADIA. SAS, BMDP4M, SYSTAT Минимизация сложности факторов (упрощение столбцов матрицы факторных нагрузок) за счет увеличения дисперсии факторных нагрузок по каждому фактору Наиболее часто используемый вид вращения; в большинстве программ используется по умолчанию (в BMDP указывается Г=1)
Квартимакс (Ортогональное) SPSS, STADIA, SAS, BMDP4M, SYSTAT Минимизация сложности переменных (упрощение строк матрицы факторных нагрузок) за счет увеличения дисперсии факторных нагрузок по каждой переменной Первый фактор, как правило, получается более общим (в BMDP указывается Г=0)
Эквимакс (Ортогональное) SPSS, STADIA, SAS, BMDP4M, SYSTAT Упрощение строк и столбцов (компромисс между варимаксом и кварти-максом) Может давать неустойчивые решения (в BMDP указывается Г=1/2)
Ортомакс (Гамма-t- Ортогональное) SAS, BMDP4M Упрощение либо строки, либо столбца в зависимости от значения Г Г - континуальная (непрерывно изменяющаяся) переменная
Парсимакс (Ортогональное) SAS Упрощение строк и столбцов r=(p’ (m-l))/p+m-2
Прямой облимин (Косоугольное) SPSS, STADIA, BMDP4M Упрощает факторы, минимизируя сумму смешанных произведений столбцов матрицы факторных нагрузок Предусмотрен выбор значений Г(ВМДР) или δ(SPSS) из непрерывного спектра, допускается широкий диапазон интеркорреляции факторов
Прямой квартимин (Косоугольное) BMDP4M Упрощает факторы, минимизируя сумму смешанных произведений столбцов структурной матрицы Допускаются достаточно высокие корреляции между факторами. Этот метод рекомендуется выполнять в BMDP (Г=0). В SPSS квартимин задается установкой δ =0
Орто-косоугольное BMDP4M, SAS (UK) Изменяет масштаб в пространстве факторов таким образом, чтобы они удовлетворяли ортогональному решению, неперемасштабированные факторы могут коррелировать друг с другом Выполняется в Кайзеровской факторизации образов в BMDP4M
Промакс (Косоугольное) SPSS, SAS Полученные при ортогональном вращении факторы вращаются вновь с допущением корреляции между ними Быстрый и экономичный метод
Прокруст (Косоугольное) SAS Преобразование матрицы, задающей взаиморасположение факторов, в целевую Используется в конфирматорном факторном анализе
         

 

Ортогональное вращение (поворот). Варимакс, квартимакс и эквимакс — три различных варианта ортогонального вращения, реализованные в большинстве пакетов программ. Наиболее часто психологи используют варимакс. Рассматривая выше многочисленные методы факторизации, мы отмечали, что все они отличаются друг от друга (хоть и незначительно) с точки зрения используемых статистических моделей. Так же и при выполнении различных вращений максимизируются и минимизируются различные функционалы.

Цель вращения варимакс — выбор наиболее простого факторного решения путем максимизации дисперсии факторных нагрузок переменных по каждому фактору (высокие факторные нагрузки после вращения еще более повышаются, а низкие понижаются). В результате становится более очевидным, какие переменные с какими факторами взаимосвязаны, и интерпретация сильно упрощается. Кроме того, при варимакс-вращении доли дисперсий, объясняемые факторами, перераспределяются в сторону выравнивания. Дисперсии у первых факторов уменьшаются и за счет этого увеличиваются у следующих (суммарная дисперсия остается постоянной). В итоге дисперсии, объясняемые каждым фактором, в какой-то степени выравниваются.

Если варимакс работает с факторами, то квартимакс — с переменными. В результате переменные упрощаются за счет увеличения дисперсии факторных нагрузок по каждой переменной. Другими словами, при варимакс-вращении изменения происходят в столбцах матрицы факторных нагрузок, а при квартимакс-вращении — в рядах. Отметим, что среди психологов, в большей степени заинтересованных в упрощении факторов, а не переменных, квартимакс не слишком популярен.

Эквимакс, занимающий промежуточное положение между варимаксом и квартимаксом, одновременно упрощает и факторы и переменные. С.Мьюлейк (Mulaik, 1972) отмечал, что если с помощью эквимакса вращать различное количество факторов, то результаты будут существенно отличаться друг от друга. Поэтому этот тип вращения имеет смысл использовать только тогда, когда вы уже точно определились с выбором количества факторов для вашей модели.

Варимакс упрощает (делает более прозрачными, однозначными с точки зрения интерпретации) факторы, квартимакс — переменные, а эквимакс — те и другие. Все эти типы вращений выполняются в программе RMDP путем установления разных уровней критерия простоты «гамма» — 1.0 и 1/2 соответственно. Гамма может также непрерывно изменяться между 0 (преобразование происходит за счет упрощения переменных) и 1 (преобразование происходит за счет упрощения факторов) при ортогональном вращении «вручную», что позволяет пользователю самому определять гамма-уровень (вид вращения). В программе SAS возможность такого перехода реализуется также специальным типом вращения — ортомакс. Там же предусмотрено вращение парсимакс, использующее для выбора «гаммы» специально встроенную расчетную формулу, исходя из количества факторов и переменных.

Варимакс реализован в большинстве программ и почти везде является опцией, выполняющейся по умолчанию.

Косоугольное вращение. Виды косоугольного вращения весьма многообразны (см. табл. 9) ввиду того, что взаимосвязи между неортогональными факторами бесконечно вариативны. При косоугольном вращении взаимосвязь между факторами во всех программных пакетах измеряется как коэффициент корреляции. Величина корреляции, допустимой между факторами, определяется переменными дельта δ в программе SPSS и гамма (Г) в программах SYSTAT и BMDP[11]. Величины дельта и гамма определяют максимальное значение корреляции, допустимое между факторами. Если эта величина меньше нуля, то решения все больше и больше приближаются к ортогональным и становятся таковыми на уровне около —4. Когда величина равна нулю, решения могут быть достаточно высоко коррелированы. Значение, близкое к 1, может продуцировать очень высоко коррелированые факторы. Несмотря на наличие зависимости между величинами дельта и гамма и величиной корреляции, максимальная корреляция при заданных значениях дельта и гамма зависит от набора исходных данных. Отметим, что при косоугольном вращении не обязательно должны получиться коррелирующие факторы. Очень часто они не коррелируют, и исследователь получает более простой случай — случай ортогонального вращения.

Параметрическое семейство процедур, используемых для косоугольного вращения (в качестве изменяющегося параметра выступает величина корреляции) реализовано в SPSS, SYSTAT и BMDP как прямой облимин. В специальном случае, если гамма или дельта равны нулю (опция задается по умолчанию в трех программах), процедура называется прямым квартимином. Значения гаммы или дельты большие нуля допускают высокие корреляции между факторами, и исследователь должен быть осторожным, выбирая правильное количество факторов. Иначе эти высоко коррелируемые факторы будет трудно отличить друг от друга. Наиболее подходящее значение гаммы и дельты устанавливается методом проб и ошибок в сочетании с изучением связей между парами факторов. Или же можно просто положиться на величину, заданную по умолчанию.

Ортокосоугольное вращение сопровождает кайзеровскую факторизацию и автоматически выполняется в BMDP. Ортокосоугольное вращение использует алгоритм квартимакса для получения ортогонального решения для факторных нагрузок с измененным масштабом. Тем не менее решение может оказаться косоугольным в сравнении с исходными нагрузками.

Программы промакс и Прокруст представлены в SAS. В промаксе решение, полученное после ортогонального вращения (обычно варимакса), вращается снова, но уже с допущением возможных корреляций между факторами. Факторные нагрузки, полученные при ортогональном решении, возводятся в степень (обычно во 2, 4 или 6-ю), чтобы свести маленькие и средние нагрузки к нулю, в то время как большие нагрузки уменьшаются, но не до нуля. Даже если факторы взаимосвязаны, простая структура максимизируется путем определения, взаимосвязаны переменные с тем или иным фактором или нет. В качестве дополнительного преимущества промакса укажем его экономичность в плане времени.

При вращении прокруст исследователь определяет целевую матрицу нагрузок (обычно состоящую из нулей и единиц) и затем отыскивает матрицу преобразования (вращения), с помощью которой выделенные факторы можно было бы привести к целевой матрице. Если такое преобразование существует (решение может быть приведено к целевому), гипотетическая факторная структура считается подтвержденной. Р.Горсуч (Gorsuch, 1983) отмечает, что, к сожалению, прокруст часто приводит к слишком высокой корреляции факторов и корреляционная матрица, построенная случайным образом, зачастую может быть очень легко приведена к целевой (специально заданной исследователем в соответствии с его гипотезой).



Поделиться:


Последнее изменение этой страницы: 2016-04-08; просмотров: 710; Нарушение авторского права страницы; Мы поможем в написании вашей работы!

infopedia.su Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав. Обратная связь - 3.145.93.221 (0.038 с.)