Средние значения и моменты случайных величин 


Мы поможем в написании ваших работ!



ЗНАЕТЕ ЛИ ВЫ?

Средние значения и моменты случайных величин



В зависимости от того, принадлежат ли возможные значения времени t и реализации X (t) дискретному множеству чисел или отрезку (а может быть, и всей действительной оси), различают четыре типа случайных процессов:

1) случайный процесс общего типа: t и X (t) могут принимать любые значения на отрезке или, быть может, на всей действительной оси;

2) дискретный случайный процесс: t непрерывно, а величины X (t) дискретны;

3) случайная последовательность общего типа: t дискретно, а X (t) может принимать любые значения на отрезке (или на всей) действительной оси;

4) дискретная случайная последовательность: t и X (t) оба дискретны.

В любом случае, случайном или детерминированном, среднее значение есть сумма чисел, деленная на число величин, подлежащих усреднению. В случайной ситуации выборочное среднее величины X определяется как

. (33)

Здесь черта над Х означает усреднение, а - выборочные значения, полученные при повторных испытаниях рассматриваемого случайного опыта.

Можно также рассматривать понятие среднего, которое появляется при бесконечном числе испытаний. Такое гипотетическое среднее называется математическим ожиданием случайной величины.

Рассмотрим дискретный случай. Случайная величина Х имеет n возможных значений . Соответствующие вероятности будут . Если проведено m испытаний, где m – достаточно большое, то следует ожидать, что в испытаниях появится значение , в - значение и т.д. Таким образом, выборочное среднее будет

, (34)

то есть среднее значение функции времени определяется ее интегрированием

на некотором интервале времени, а затем делением полученной величины

на продолжительность этого интервала.

Для определения среднего значения непрерывной случайной величины усреднение по времени заменяют интегрированием по диапазону возможных значений, которые она может принимать, то есть вводится усреднение по ансамблю:

. (35)

Здесь и далее угловые скобки означают операцию статистического усреднения, то есть усреднения по ансамблю.

Отсюда вытекает следующее определение для математического ожидания дискретной случайной величины Х:

, (36)

где n – число возможных значений случайной величины Х.

Для непрерывной случайной величины

. (37)

Таким образом, оператор вычисления математического ожидания для дискретной случайной величины представляет взвешенное суммирование, а для непрерывной случайной величины – интегрирование с весом.

Качественно математическое ожидание представляет наиболее вероятное значение, а значения с каждой стороны от среднего становятся все менее и менее вероятными по мере того, как отклонение от среднего становится больше.

Свойства математического ожидания:

1. Поскольку эти операторы линейны, математическое ожидание суммы случайных величин равно сумме математических ожиданий отдельных слагаемых.

2. Математическое ожидание константы рано ей самой.

3. Константу можно выносить за знак математического ожидания.

Средние по времени значения важны при рассмотрении случайных функций времени, но говорить о среднем одиночного значения случайной величины не имеет смысла, поскольку оно определяется как мгновенное значение.

Величины средних по ансамблю реализаций для любых степеней случайного процесса называются начальными моментами n -го порядка:

. (38)

Центральные моменты n -го порядка определяются как

(39)

и представляют собой моменты для центрированного процесса

. (40)

Самыми важными являются следующие моменты.

1. Начальный момент 1-го порядка, равный среднему значению.

Также эта величина называется математическим ожиданием.

Начальный момент 2-го порядка, равный среднему квадрату случайной

величины:

(41)

Первый центральный момент всегда равен нулю

. (42)

Второй центральный момент называется дисперсией

. (43)

Дисперсия характеризует интенсивность флуктуаций случайного процесса. Корень квадратный из дисперсии σ(t) называется стандартным или среднеквадратическим отклонением.

Существует еще одно определение дисперсии:

. (44)

В качественном смысле дисперсия X представляет меру разброса X относительно среднего. Если среднее равно нулю, дисперсия тождественно равна второму начальному моменту. Можно показать, что

. (45)

Так что дисперсия представляет разность между средним квадратом случайной величины и квадратом ее математического ожидания.

Из свойств дисперсии отметим два:

1. Дисперсия неслучайной константы С равна нулю.

2. Неслучайную константу С выносят за знак дисперсии при возведении в квадрат.

Третий центральный момент может служить критерием оценки для асимметрии закона распределения относительно оси, параллельной оси ординат и проходящей через среднее значение случайной величины. Часто пользуются понятием коэффициента асимметрии

. (46)

Если для анализируемой кривой коэффициент асимметрии равен нулю, то по одному признаку эта кривая совпадает с нормальной. Однако равенство нулю коэффициента асимметрии еще не является достаточным условием нормальности распределения.

Если кривая плотности вероятности имеет более пологий спад справа от среднего значения, говорят о положительной асимметрии . Если спад боле пологий слева от среднего значения, - коэффициент асимметрии отрицателен, , то есть плотность вероятности обладает отрицательной асимметрией.

Четвертый центральный момент. Иногда используют численную характеристику «сглаженности» кривой распределения около моды (максимального значения) – коэффициент эксцесса:

 

. (47)

Этот коэффициент дает возможность сравнивать «характер вершины» данной кривой распределения с аналогичной особенностью нормального (гауссовского) распределения.

Для нормального распределения случайного процесса =3. Отличие эксцесса от этой величины свидетельствует, что распределение не является нормальным. При > 0 кривая плотности вероятности в окрестности максимума имеет более высокую и более острую вершину, чем нормальная плотность вероятности. < 0 указывает на более низкий и более плоский характер вершины по сравнению с нормальной кривой. В первом случае говорят о положительном, а во втором – об отрицательном эксцессе.

К примеру, распределение молекул по скоростям описывается распределением Максвелла:

. (48)

Здесь m – масса молекулы; k – постоянная Больцмана; Т – абсолютная температура. В этом случае коэффициент асимметрии равен 21.

Коэффициенты γ и часто используются, чтобы характеризовать степень отличия данного распределения от нормального.

Из часто используемых видов функции распределения можно отметить применяемое в анализе распространения электромагнитных волн в хаотической неоднородной среде распределение Накагами или m –распределение. Если представить отдельную составляющую электромагнитного сигнала как , где R и - случайные амплитуда и фаза (изменение их по нормальному закону не требуется), то распределение огибающей этого сигнала, представляющей сумму большого числа компонент, описывается m -распределением:

. (49)

Здесь

. (50)

При этом .

При получаем нормальное распределение как частный случай распределения Накагами.

При имеет место обычное распределение Релея:

, (51)

поскольку .

В случае m >1 получаем обобщенное релеевское распределение:

, (52)

где - функция Бесселя мнимого аргумента.

При , где n – целое и положительное, приходим к -распределению.

Корреляционная функция

Задание одномерной плотности распределения вероятности не дает возможности определить характер изменения случайного процесса во времени и не характеризует взаимосвязь случайного процесса в различные моменты времени. Зависимость между случайными процессами требует введения многомерных распределений. По аналогии с одномерным случаем вводят понятие двумерной плотности распределения вероятности , описывающей связь двух значений X (t 1) и X (t 2) в произвольные моменты времени t 1 и t 2. С помощью двумерной плотности распределения вероятности можно определить корреляционную функцию, которая является вторым смешанным центральным моментом:

(53)

Для количественной характеристики зависимости случайных функций вводится нормированная корреляционная функция, которая называется коэффициентом корреляции:

. (54)

Если коэффициент корреляции равен 1, это означает линейную зависимость случайных величин. Если они независимы, он равен нулю.

В большинстве радиотехнических задач встречаются коэффициенты корреляции в виде монотонно убывающих или осциллирующих затухающих функций. Время затухания или время корреляции определяется как

. (55)

Основные свойства корреляционной функции и коэффициента корреляции:

1. Равенство нулю для статистически независимых значений случайного процесса. Это следует из того, что

. (56)

2. Симметричность относительно своих аргументов:

. (57)

3. Ограниченность коэффициента корреляции:

. (58)

Обозначим для простоты записи значения процесса через и . Если величины и независимы, , следовательно, .

Если и .

Если , .

Легко определить, условия, при которых коэффициент корреляции двух процессов равен 0. Очевидно, такое равенство возможно в случае

. Это означает равенство

. (59)

Это возможно при условии . Значит, в этом случае и - независимые величины, так как при этом вероятность их совместного осуществления равна произведению вероятностей каждого из них. Итак, если и независимы, их коэффициент корреляции равен 0. Обратное утверждение неверно: равенство коэффициента корреляции нулю еще не означает независимости событий, поскольку зависимость может проявиться в моментах более высоких порядков. Равенство коэффициента корреляции нулю означает некоррелированность случайных величин и .

Равенство коэффициента корреляции единице означает линейную зависимость случайных величин:

. (60)

При нелинейной зависимости R отличается от единицы и в указанных пределах (-1,1) может принимать любые значения. Для коэффициента корреляции при

. (61)

При

. (62)

С увеличением временного сдвига коэффициент корреляции спадает от 1 до нуля.

Коэффициент корреляции со временем спадает до нуля при бесконечном увеличении временного сдвига . Время корреляции определяется по уровню и дает ориентировочное представление о том, на каком временном интервале в среднем имеет место коррелированность случайного процесса. При меньшем значении радиуса корреляции считают, что корреляция между случайными величинами пренебрежимо мала.

Значение коэффициента корреляции по уровню 0,5 определяет радиус (или интервал) корреляции в зависимости от разнесения (временного или пространственного).

В случае одной реализации количественной мерой статистической зависимости последующего значения статистической величины от ее предыдущего значения является коэффициент автокорреляции. Можно рассматривать величины и как два различных, но связанных между собой процесса. Коэффициент корреляции определяет значение , при котором процессы можно считать независимыми:

(63)

при условии, что процесс стационарный , а не является функцией времени.

Функция корреляции между значениями разных процессов называется

взаимной корреляционной функцией.

 

Структурные функции.

Понятие структурной функции часто применяется для анализа сред со случайными неоднородностями. Оно было введено акад. А.Н. Колмогоровым для описания поля скоростей турбулентных движений воздушных масс в атмосфере.

По определению, структурная функция представляет величину

, (64)

то есть средний квадрат разности значений случайной величины в двух точках. Пусть в точке 1 скорость является случайной величиной и равна , а в точке 2 - . Тогда структурная функция будет характеризовать связь между скоростями в двух точках.

Рассмотрим структурную функцию некоторого стационарного процесса. При этом несущественно, по времени или по пространству производится сдвиг.

. (65)

Это выражение дает связь между корреляционной и структурной функциями и показывает, что для стационарного процесса возможно использование как той, так и другой.

Корреляционная функция в максимуме равна квадрату дисперсии. Следовательно, . То есть корреляционная функция в нуле принимает максимальное значение, структурная – минимальное. На корреляционная функция равна нулю, структурная . Поскольку , получаем:

. (66)

Мы показали, что .

Следовательно, для стационарного процесса получаем еще одну формулу, связывающую корреляционную и структурную функции:

. (67)

Некоторые исследования, связанные с ограничением интервала усреднения, показывают:

1. Корреляционная функция дает б о льшую статистическую точность, если исследуемый объем состоит из множества мелких неоднородностей.

2. Если неоднородности крупные, б о льшую статистическую точность дают структурные функции.



Поделиться:


Последнее изменение этой страницы: 2016-12-27; просмотров: 794; Нарушение авторского права страницы; Мы поможем в написании вашей работы!

infopedia.su Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав. Обратная связь - 3.137.192.3 (0.043 с.)