Распределение признака. Параметры распределения 


Мы поможем в написании ваших работ!



ЗНАЕТЕ ЛИ ВЫ?

Распределение признака. Параметры распределения



Распределением признака называется закономерность встречаемо­сти разных его значений (Плохинский Н.А., 1970, с. 12).

В психологических исследованиях чаще всего ссылаются на нор­мальное распределение.

Нормальное распределение характеризуется тем, что крайние зна­чения признака в нем встречаются достаточно редко, а значения, близ­кие к средней величине - достаточно часто. Нормальным такое распре­деление называется потому, что оно очень часто встречалось в естест­веннонаучных исследованиях и казалось "нормой" всякого массового случайного проявления признаков. Это распределение следует закону, открытому тремя учеными в разное время: Муавром в 1733 г. в Англии, Гауссом в 1809 г. в Германии и Лапласом в 1812 г. во Франции (Плохинский Н.А., 1970, с.17). График нормального распределения представляет собой привычную глазу психолога-исследователя так на­зываемую колоколообразную кривую (см. напр., Рис. 1.1, 1.2).

Параметры распределения - это его числовые характеристики, указывающие, где "в среднем" располагаются значения признака, на­сколько эти значения изменчивы и наблюдается ли преимущественное появление определенных значений признака. Наиболее практически важными параметрами являются математическое ожидание, дисперсия, показатели асимметрии и эксцесса.

В реальных психологических исследованиях мы оперируем не па­раметрами, а их приближенными значениями, так называемыми оценка­ми параметров. Это объясняется ограниченностью обследованных выбо­рок. Чем больше выборка, тем ближе может быть оценка параметра к его истинному значению. В дальнейшем, говоря о параметрах, мы будем иметь в виду их оценки.

Среднее арифметическое (оценка математического ожидания) вы­числяется по формуле:

где xi - каждое наблюдаемое значение признака;

i - индекс, указывающий на порядковый номер данного зна­чения признака;

п - количество наблюдений;

∑- знак суммирования.

Оценка дисперсии определяется по формуле:

где xi - каждое наблюдаемое значение признака;

- среднее арифметическое значение признака;

n - количество наблюдений.

Величина, представляющая собой квадратный корень из несме­щенной оценки дисперсии (S), называется стандартным отклонением или средним квадратическим отклонением. Для большинства исследова­телей привычно обозначать эту величину греческой буквой σ (сигма), а не S. На самом деле, σ - это стандартное отклонение в генеральной совокупности, a S - несмещенная оценка этого параметра в исследован­ной выборке. Но, поскольку S - лучшая оценка σ (Fisher R.A., 1938), эту оценку стали часто обозначать уже не как S, а как σ:

В тех случаях, когда какие-нибудь причины благоприятствуют более частому появлению значений, которые выше или, наоборот, ниже среднего, образуются асимметричные распределения. При левосторон­ней, или положительной, асимметрии в распределении чаще встречаются более низкие значения признака, а при правосторонней, или отрица­тельной - более высокие (см. Рис. 1.5).

Показатель асимметрии (A)вычисляется по формуле:

В тех случаях, когда какие-либо причины способствуют преиму­щественному появлению средних или близких к средним значений, об­разуется распределение с положительным эксцессом. Если же в рас­пределении преобладают крайние значения, причем одновременно и бо­лее низкие, и более высокие, то такое распределение характеризуется отрицательным эксцессом и в центре распределения может образоваться впадина, превращающая его в двувершинное (см. Рис. 1.6).

Показатель эксцесса (E) определяется по формуле:

Рис. 1.6. Эксцесс: а) положительный; 6) отрицательный

В распределениях с нормальной выпуклостью E=0.

Параметры распределения оказывается возможным определить только по отношению к данным, представленным по крайней мере в интервальной шкале. Как мы убедились ранее, физические шкалы длин, времени, углов являются интервальными шкалами, и поэтому к ним применимы способы расчета оценок параметров, по крайней мере, с формальной точки зрения. Параметры распределения не учитывают истинной психологической неравномерности секунд, миллиметров и других физических единиц измерения.

На практике психолог-исследователь может рассчитывать пара­метры любого распределения, если единицы, которые он использовал при измерении, признаются разумными в научном сообществе.

Статистические гипотезы

Формулирование гипотез систематизирует предположения иссле­дователя и представляет их в четком и лаконичном виде. Благодаря гипотезам исследователь не теряет путеводной нити в процессе расчетов и ему легко понять после их окончания, что, собственно, он обнаружил.

Статистические гипотезы подразделяются на нулевые и альтерна­тивные, направленные и ненаправленные.

Нулевая гипотеза - это гипотеза об отсутствии различий. Она обозначается как H0 и называется нулевой потому, что содержит число 0: X1- Х2=0, где X1, X2 - сопоставляемые значения признаков.

Нулевая гипотеза - это то, что мы хо­тим опровергнуть, если перед нами стоит задача доказать значимость различий.

Альтернативная гипотеза - это гипотеза о значимости различий. Она обозначается как H1. Альтернатив­ная гипотеза - это то, что мы хотим до­казать, поэтому иногда ее называют экспериментальной гипотезой.

Бывают задачи, когда мы хотим доказать как раз незначимость различий, то есть подтвердить нулевую гипотезу. Например, если нам нужно убедиться, что разные испытуемые получают хотя и различные, но уравновешенные по трудности задания, или что экспериментальная и контрольная выборки не различаются между собой по каким-то значи­мым характеристикам. Однако чаще нам все-таки требуется доказать значимость различий, ибо они более информативны для нас в поиске нового. Нулевая и альтернативная гипотезы могут быть направленными и ненаправленными.

Направленные гипотезы

H0: X1 не превышает Х2

H1: X1 превышает Х2

Ненаправленные гипотезы

H0: X1 не отличается от Х2

Н1: Х1 отличается от Х2

Если вы заметили, что в одной из групп индивидуальные значе­ния испытуемых по какому-либо признаку, например по социальной смелости, выше, а в другой ниже, то для проверки значимости этих различий нам необходимо сформулировать направленные гипотезы.

Если мы хотим доказать, что в группе А под влиянием каких-то экспериментальных воздействий произошли более выраженные измене­ния, чем в группе Б, то нам тоже необходимо сформулировать направ­ленные гипотезы.

Если же мы хотим доказать, что различаются формы распределения признака в группе А и Б, то формулируются ненаправленные гипотезы.

При описании каждого критерия в руководстве даны формули­ровки гипотез, которые он помогает нам проверить.

Построим схему - классификацию статистических гипотез.

Проверка гипотез осуществляется с помощью критериев стати­стической оценки различий.

Статистические критерии

Статистический критерий - это решающее правило, обеспечиваю­щее надежное поведение, то есть принятие истинной и отклонение ложной гипотезы с высокой вероятностью (Суходольский Г.В., 1972, с. 291).

Статистические критерии обозначают также метод расчета опре­деленного числа и само это число.

Когда мы говорим, что достоверность различий определялась по критерию χ2, то имеем в виду, что использовали метод χ2 - для расчета определенного числа.

Когда мы говорим, далее, что χ2=12,676, то имеем в виду опре­деленное число, рассчитанное по методу χ2. Это число обозначается как эмпирическое значение критерия.

По соотношению эмпирического и критического значений крите­рия мы можем судить о том, подтверждается ли или опровергается ну­левая гипотеза. Например, если χ2эмп> χ2кр, H0 отвергается.

В большинстве случаев для того, чтобы мы признали различия значимыми, необходимо, чтобы эмпирическое значение критерия пре­вышало критическое, хотя есть критерии (например, критерий Манна-Уитни или критерий знаков), в которых мы должны придерживаться противоположного правила.

Эти правила оговариваются в описании каждого из представлен­ных в руководстве критериев.

В некоторых случаях расчетная формула критерия включает в се­бя количество наблюдений в исследуемой выборке, обозначаемое как п. В этом случае эмпирическое значение критерия одновременно является тестом для проверки статистических гипотез. По специальной таблице мы определяем, какому уровню статистической значимости различий соответствует данная эмпирическая величина. Примером такого крите­рия является критерий φ*, вычисляемый на основе углового преобразо­вания Шишера.

В большинстве случаев, однако, одно и то же эмпирическое зна­чение критерия может оказаться значимым или незначимым в зависи­мости от количества наблюдений в исследуемой выборке (n) или от так называемого количества степеней свободы, которое обозначается как v или как df.

Число степеней свободы v равно числу классов вариационного ряда минус число условий, при которых он был сформирован (Ивантер Э.В., Коросов А.В., 1992, с. 56). К числу таких условий относятся объем выборки (n), средние и дисперсии.

Если мы расклассифицировали наблюдения по классам какой-либо номинативной шкалы и подсчитали количество наблюдений в каж­дой ячейке классификации, то мы получаем так называемый частотный вариационный ряд. Единственное условие, которое соблюдается при его формировании - объем выборки п. Допустим, у нас 3 класса: "Умеет работать на компьютере - умеет выполнять лишь определенные опера­ции - не умеет работать на компьютере". Выборка состоит из 50 чело­век. Если в первый класс отнесены 20 испытуемых, во второй - тоже 20, то в третьем классе должны оказаться все остальные 10 испытуе­мых. Мы ограничены одним условием - объемом выборки. Поэтому даже если мы потеряли данные о том, сколько человек не умеют рабо­тать на компьютере, мы можем определить это, зная, что в первом и втором классах - по 20 испытуемых. Мы не свободны в определении количества испытуемых в третьем разряде, "свобода" простирается только на первые две ячейки классификации:

v = c -l = 3-1 = 2

Аналогичным образом, если бы у нас была классификация из 10 разрядов, то мы были бы свободны только в 9 из них, если бы у нас было 100 классов - то в 99 из них и т. д.

Способы более сложного подсчета числа степеней свободы при двухмерных классификациях приведены в разделах, посвященных кри­терию χ2и дисперсионному анализу.

Зная n и/или число степеней свободы, мы по специальным таб­лицам можем определить критические значения критерия и сопоставить с ними полученное эмпирическое значение. Обычно это записывается так: "при n=22 критические значения критерия составляют..." или "при v =2 критические значения критерия составляют..." и т.п.

Критерии делятся на параметрические и непараметрические.

Параметрические критерии

Критерии, включающие в формулу расчета параметры распределения, то есть средние и дисперсии (t - критерий Стьюдента, критерий F и др.)

Непараметрические критерии

Критерии, не включающие в формулу расчета параметров распределе­ния и основанные на оперировании частотами или рангами (критерий Q Розенбаума, критерий Т Вилкоксона и др.)

И те, и другие критерии имеют свои преимущества и недостатки. На основании нескольких руководств можно составить таблицу, позво­ляющую оценить возможности и ограничения тех и других (Рунион Р., 1982; McCall R., 1970; J.Greene, M.D'Olivera, 1989).

Таблица 1.1

Возможности и ограничения параметрических и непараметрических критериев

 

ПАРАМЕТРИЧЕСКИЕ КРИТЕРИИ НЕПАРАМЕТРИЧЕСКИЕ КРИТЕРИИ
1. Позволяют прямо оценить различи* в средних, полученных в двух вы­борках (t - критерий Стьюдента). Позволяют оценить лишь средние тенден­ции, например, ответить на вопрос, чаще ли в выборке А встречаются более высо­кие, а в выборке Б - более низкие значе­ния признака (критерии Q, U, φ* и др.).
2. Позволяют прямо оценить различия в дисперсиях (критерий Фишера). Позволяют оценить лишь различия в диа­пазонах вариативности признака (критерий φ*).
3. Позволяют выявить тенденции изме-нения признака при переходе от ус­ловия к условию (дисперсионный однофакторный анализ), но лишь при условии нормального распреде­ления признака. Позволяют выявить тенденции изменения признака при переходе от условия к усло­вию при любом распределении признака (критерии тенденций L и S).
4. Позволяют оценить взаимодействие двух и более факторов в их влиянии на изменения признака (двухфакторный дисперсионный анализ). Эта возможность отсутствует.
5. Экспериментальные данные должны отвечать двум, а иногда трем, усло­виям: а) значения признака измерены по интервальной шкале; б) распределение признака является нормальным; в) в дисперсионном анализе должно соблюдаться требование равенства дисперсий в ячейках комплекса. Экспериментальные данные могут не от­вечать ни одному из этих условий: а) значения признака могут быть пред­ставлены в любой шкале, начиная от шка­лы наименований; б) распределение признака может быть любым и совпадение его с каким-либо теоретическим законом распределения необязательно и не нуждается в проверке; в) требование равенства дисперсий отсут­ствует.
6. Математические расчеты довольно сложны. Математические расчеты по большей час­ти просты и занимают мало времени (за исключением критериев χ2и λ).
7. Если условия, перечисленные в п.5, выполняются, параметрические кри­терии оказываются несколько более мощными, чем непараметрические. Если условия, перечисленные в п.5, не выполняются, непараметрические критерии оказываются более мощными, чем пара­метрические, так как они менее чувстви­тельны к "засорениям'.

 

Из Табл. 1.1 мы видим, что параметрические критерии могут оказаться несколько более мощными[5], чем непараметрические, но толь­ко в том случае, если признак измерен по интервальной шкале и нор­мально распределен. С интервальной шкалой есть определенные про­блемы (см. раздел "Шкалы измерения"). Лишь с некоторой натяжкой мы можем считать данные, представленные не в стандартизованных оценках, как интервальные. Кроме того, проверка распределения "на нормальность" требует достаточно сложных расчетов, результат кото­рых заранее неизвестен (см. параграф 7.2). Может оказаться, что рас­пределение признака отличается от нормального, и нам так или иначе все равно придется обратиться к непараметрическим критериям.

Непараметрические критерии лишены всех этих ограничений и не­требуют таких длительных и сложных расчетов. По сравнению с пара­метрическими критериями они ограничены лишь в одном - с их помо­щью невозможно оценить взаимодействие двух или более условий или факторов, влияющих на изменение признака. Эту задачу может решить только дисперсионный двухфакторный анализ.

Учитывая это, в настоящее руководство включены в основном непараметрические статистические критерии. В сумме они охватывают большую часть возможных задач сопоставления данных.

Единственный параметрический метод, включенный в руково­дство - метод дисперсионного анализа, двухфакторный вариант которого ничем невозможно заменить.



Поделиться:


Последнее изменение этой страницы: 2016-04-20; просмотров: 2240; Нарушение авторского права страницы; Мы поможем в написании вашей работы!

infopedia.su Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав. Обратная связь - 18.188.44.223 (0.034 с.)