Глава III. Временные ряды, информация и связь 


Мы поможем в написании ваших работ!



ЗНАЕТЕ ЛИ ВЫ?

Глава III. Временные ряды, информация и связь



 

Существует широкий класс явлений, в которых объектом наблюдения служит какая-либо числовая величина или последовательность числовых величин, распределенные во времени. Температура, непрерывно записываемая самопишущим термометром; курс акций на бирже в конце каждого дня; сводка метеорологических данных, ежедневно публикуемая бюро погоды, — все это временные ряды, непрерывные или дискретные, одномерные или многомерные. Эти временные ряды меняются сравнительно медленно, и их вполне можно обрабатывать посредством вычислений вручную или при помощи обыкновенных вычислительных приборов, таких, как счетные линейки и арифмометры. Их изучение относится к обычным разделам статистической науки.

Но не все отдают себе отчет в том, что быстро меняющиеся последовательности напряжений в телефонной линии, телевизионной схеме или радиолокаторе точно так же относятся к области статистики и временных рядов, хотя приборы, которые их комбинируют и преобразуют, должны, вообще говоря, обладать большим быстродействием и, более того, должны выдавать результаты одновременно с очень быстрыми изменениями входного сигнала. Эти приборы: телефонные аппараты, волновые фильтры, автоматические звукокодирующие устройства типа вокодера[138]Белловских телефонных лабораторий, схемы частотной модуляции и соответствующие им приемники — по существу [c.119] представляют собой быстродействующие арифметические устройства, соответствующие всему собранию вычислительных машин и программ статистического бюро, вместе со штатом вычислителей. Необходимый для их применения разум был вложен в них заранее, так же как и в автоматические дальномеры и системы управления артиллерийским зенитным огнем и по той же причине: цепочка операций должна выполняться настолько быстро, что ни в одном звене нельзя допустить участия человека.

Все эти временные ряды и все устройства, работающие с ними, будь то в вычислительном бюро или в телефонной схеме, связаны с записью, хранением, передачей и использованием информации. Что же представляет собой эта информация и как она измеряется? Одной из простейших, наиболее элементарных форм информации является запись выбора между двумя равновероятными простыми альтернативами, например между гербом и решеткой при бросании монеты. Мы будем называть решением однократный выбор такого рода. Чтобы оценить теперь количество информации, получаемое при совершенно точном измерении величины, которая заключена между известными пределами А и В и может находиться с равномерной априорной вероятностью где угодно в этом интервале, положим А =0, В= 1 и представим нашу величину в двоичной системе бесконечной двоичной дробью 0, а 1 а 2 а 3an …, где каждое а 1, а 2, … имеет значение 0 или 1. Здесь

 

(3.01)

Мы видим, что число сделанных выборов и вытекающее отсюда количество информации бесконечны.

Однако в действительности никакое измерение не производится совершенно точно. Если измерение имеет равномерно распределенную ошибку, лежащую в интервале длины 0, b 1 b 2bn …, где bk — первый разряд, отличный от 0, то, очевидно, все решения от а 1 до а k— 1 и, возможно, до ak будут значащими, а все последующие — нет. Число принятых решений, очевидно, близко к

 

(3.02)

[c.120]

и это выражение мы примем за точную формулу количества информации и за его определение.

Это выражение можно понимать следующим образом: мы знаем априори, что некоторая переменная лежит между нулем и единицей, и знаем апостериори, что она лежит в интервале (а, b) внутри интервала (0, 1). Тогда количество информации, извлекаемой нами из апостериорного знания, равно

 

(3.03)

Рассмотрим теперь случай, когда мы знаем априори, что вероятность нахождения некоторой величины между х и x + dx равна f 1(x) dx, а апостериорная вероятность этого равна f 2(x) dx. Сколько новой информации дает нам наша апостериорная вероятность?

Эта задача по существу состоит в определении ширины областей, расположенных под кривыми y=f 1(x) и y = f 2(x). Заметим, что, по нашему допущению, переменная х имеет основное равномерное распределение, т. е. наши результаты, вообще говоря, будут другими, если мы заменим х на х 3 или на какую-либо другую функцию от х. Так как f 1(x) есть плотность вероятности, то

 

(3.04)

Поэтому средний логарифм ширины области, расположенной под кривой f 1(x), можно принять за некоторое среднее значение высоты логарифма обратной величины функции f 1(x). Таким образом, разумной мерой[139]количества информации, связанного с кривой f 1(x), может служить[140] [c.121]

 

(3.05)

Величина, которую мы здесь определяем как количество информации, противоположна по знаку величине, которую в аналогичных ситуациях обычно определяют как энтропию. Данное здесь определение не совпадает с определением Р.А. Фишера для статистических задач, хотя оно также является статистическим определением и может применяться в методах статистики вместо определения Фишера.

В частности, если f 1(x) постоянна на интервале (а, b) и равна нулю вне этого интервала, то

 

(3.06)

Используя это выражение для сравнения информации о том, что некоторая точка находится в интервале (0, 1), с информацией о том, что она находится в интервале (а, b), получим как меру разности

 

(3.07)

Определение, данное нами для количества информации, пригодно также в том случае, когда вместо переменной х берется переменная, изменяющаяся в двух или более измерениях. В двумерном случае f 1 (x, y) есть такая функция, что

 

(3.08)

и количество информации равно

 

(3.081)

Заметим, что если f 1(x, y) имеет вид φ (х) ψ (y) и

 

, (3.082)

[c.122]

то

 

(3.083)

и

 

(3.084)

т. е. количество информации от независимых источников есть величина аддитивная.

Интересной задачей является определение информации, получаемой при фиксации одной или нескольких переменных в какой-либо задаче. Например, положим, что переменная u заключена между х и x + dx с вероятностью

 

,

а переменная v заключена между теми же двумя пределами с вероятностью

 

 

Сколько мы приобретаем информации об u, если знаем, что u + v = w? В этом случае очевидно, что u = wv, где w фиксировано. Мы полагаем, что априорные распределения переменных u и v независимы, тогда апостериорное распределение переменной u пропорционально величине

 

, (3.09)

где c1 и c2 — константы. Обе они исчезают в окончательной формуле.

Приращение информации об u, когда мы знаем, что w таково, каким мы его задали заранее, равно

 

[c.123]

 

(3.091)

Заметим, что выражение (3.091) положительно и не зависит от w. Оно равно половине логарифма от отношения суммы средних квадратов переменных u и v к среднему квадрату переменной v. Если v имеет лишь малую область изменения, то количество информации об u, которое дается знанием суммы u+v, велико и становится бесконечным, когда b приближается к нулю.

Мы можем истолковать этот результат следующим образом. Будем рассматривать u как сообщение, а v — как помеху. Тогда информация, переносимая точным сообщением в отсутствие помехи, бесконечна. Напротив, при наличии помехи это количество информации конечно и быстро приближается к нулю по мере увеличения силы помехи.

Мы сказали, что количество информации, будучи отрицательным логарифмом величины, которую можно рассматривать как вероятность, по существу есть некоторая отрицательная энтропия. Интересно отметить, что эта величина в среднем имеет свойства, которые мы приписываем энтропии.

Пусть φ (х) и ψ (x) — две плотности вероятностей, тогда

 

 

также есть плотность вероятности и

 

(3.10)

Это вытекает из того, что

 

(3.11)

Другими словами, перекрытие областей под φ (х) и ψ (x) уменьшает максимальную информацию, заключенную в сумме φ (х)+ ψ (x). Если же φ (х) есть плотность [c.124] вероятности, обращающаяся в нуль вне (а, b), то интеграл

 

(3.12)

имеет наименьшее значение, когда

на интервале (а, b) и φ (х)=0 вне этого интервала. Это вытекает из того, что логарифмическая кривая выпукла вверх.

Как и следовало ожидать, процессы, ведущие к потере информации, весьма сходны с процессами, ведущими к росту энтропии. Они состоят в слиянии областей вероятностей, первоначально различных. Например, если мы заменяем распределение некоторой переменной распределением функции от нее, принимающей одинаковые значения при разных значениях аргумента, или в случае функции нескольких переменных позволяем некоторым из них свободно пробегать их естественную область изменения, мы теряем информацию. Никакая операция над сообщением не может в среднем увеличить информацию. Здесь мы имеем точное применение второго закона термодинамики к технике связи. Обратно, уточнение в среднем неопределенной ситуации приводит, как мы видели, большей частью к увеличению информации и никогда — к ее потере.

Интересен случай, когда мы имеем распределение вероятностей с n -мерной плотностью f (х 1, …, xn) по переменным (х 1, …, xn) и m зависимых переменных y 1, …, ym. Сколько информации мы приобретаем при фиксации таких т переменных? Пусть они сперва фиксируются между пределами y 1*, y 1*+ dy 1*; …; ym *, ym *+ dym *. Примем х 1, x 2, …, xn—m, y 1, y 2, …, ут за новую систему переменных. Тогда для новой системы переменных наша функция распределения будет пропорциональна f 1(х 1, …, xn) над областью R, определенной условиями

 

 

и равна нулю вне ее. Следовательно, количество информации, полученной при наложении условий на значения y, будет равно[141] [c.125]

 

(3.13)

С этой задачей тесно связано обобщение задачи, о которой говорилось по поводу уравнения (3.091). Сколько информации в рассматриваемом случае приобретается нами об одних только переменных х 1, …, xn—m? Здесь априорная плотность вероятности этих переменных равна

 

, (3.14)

а ненормированная плотность вероятности после фиксации величин у* будет

 

(3.141)

где Σ берется по всем множествам значений (x n—m +1, …, xn), соответствующим данному множеству значений y *. Основываясь на этом, нетрудно записать решение нашей задачи, хотя оно и будет несколько громоздким. Если мы примем множество (x 1, …, xn—m) за обобщенное сообщение, множество (x n—m +1, …, xn) — за [c.126] обобщенный шум. а величины y * — за обобщенное искаженное сообщение, то получим, очевидно, решение обобщенной задачи выражения (3.091).

Таким образом, мы имеем по крайней мере формальное решение обобщения упомянутой уже задачи о сигнале и шуме. Некоторое множество наблюдений зависит произвольным образом от некоторого множества сообщений и шумов с известным совместным распределением. Мы хотим установить, сколько информации об одних только сообщениях дают эти наблюдения. Это центральная проблема техники связи. Решение ее позволит нам оценивать различные системы связи, например системы с амплитудной, частотной или фазовой модуляцией, в отношении их эффективности в передаче информации. Это техническая задача, не подлежащая здесь подробному обсуждению; уместно, однако, сделать некоторые замечания.

Во-первых, можно показать, что если пользоваться данным здесь определением информации, то при случайных помехах в эфире с равномерно распределенной по частоте мощностью и для сообщения, ограниченного определенным диапазоном частот и определенной отдачей мощности на этом диапазоне, не существует более эффективного способа передачи информации, чем амплитудная модуляция, хотя другие способы могут быть столь же эффективны. Во-вторых, переданная этим способом информация не обязательно имеет такую форму, которая наиболее приемлема для слуха или для другого данного рецептора. В этом случае специфические свойства уха и других рецепторов должны быть учтены при помощи теории, весьма сходной с только что изложенной. Вообще эффективное использование амплитудной модуляции или какого-либо другого вида модуляции должно быть дополнено применением соответствующих декодирующих устройств для преобразования принятой информации в такую форму, которая может быть хорошо воспринята рецепторами человека или же механическими рецепторами. Первоначальное сообщение тоже должно кодироваться, чтобы оно занимало возможно меньше места при передаче. Эта задача была разрешена, по крайней мере частично, когда Белловские телефонные лаборатории разработали систему «вокодер», а д-р К. Шеннон из этих лабораторий [c.127] представил в весьма удовлетворительном виде соответствующую общую теорию. Так обстоит дело с определением и методикой измерения информации. Теперь рассмотрим, каким способом информация может быть представлена в однородной во времени форме. Заметим, что большинство телефонных устройств и других приборов связи в действительности не предполагает определенного начала отсчета во времени. В самом деле, только одна операция как будто противоречит этому, но и здесь противоречие лишь кажущееся. Мы имеем в виду модуляцию. В ее наиболее простом виде она состоит в преобразовании сообщения f (t) в сообщение вида f (t)sin(at + b). Однако, если мы будет рассматривать множитель sin(at + b) как добавочное сообщение, вводимое в аппаратуру, то, очевидно, случай модуляции подойдет под наше общее утверждение. Добавочное сообщение, которое мы называем переносчиком, ничего не прибавляет к скорости передачи информации системой. Вся содержащаяся в нем информация посылается в произвольно короткий промежуток времени, и затем больше ничего нового не передается.

Итак, сообщение, однородное во времени, или, как выражаются профессионалы-статистики, временной ряд, находящийся в статистическом равновесии, есть функция или множество функций времени, входящее в ансамбль таких множеств с правильным распределением вероятностей, не изменяющимся, если всюду заменить t на t + τ. Иначе говоря, вероятность ансамбля инвариантна относительно группы преобразований, состоящей из операторов T λ которые изменяют f (t) в f (t + λ). Группа удовлетворяет условию

 

(3.15)

Следовательно, если Ф[ f (t)] — «функционал» от f (t), т. е. число, зависящее от всей истории функции f (t), и среднее значение f (t) по всему ансамблю конечно, то мы вправе применить эргодическую теорему Биркгоффа из предыдущей главы и заключить, что всюду, исключая множество значений f (t) нулевой вероятности, существует временно́е среднее от Ф[ f (t)], или в символах

 

(3.16)

[c.128]

Но это еще не все. В предыдущей главе проводилась другая теорема эргодического характера, доказанная фон Нейманом: коль скоро некоторая система переходит в себя при данной группе сохраняющих меру преобразований, как в случае нашего уравнения (3.15), то, за исключением множества элементов нулевой вероятности, каждый элемент системы входит в подмножество (быть может, равное всему множеству), которое: 1) переходит в себя при тех же преобразованиях; 2) имеет меру, определенную на нем самом и также инвариантную при этих преобразованиях; 3) замечательно тем, что любая часть этого подмножества с мерой, сохраняемой данной группой преобразований, имеет либо максимальную меру всего подмножества, либо меру 0. Отбросив все элементы, не принадлежащие к такому подмножеству, и используя для него надлежащую меру, мы найдем, что временно́е среднее (3.16) почти во всех случаях равно среднему значению функционала Ф[ f (t)] по всему пространству функций f (t), т. е. так называемому фазовому среднему. Стало быть, в случае такого ансамбля функции f (t), за исключением множества случаев нулевой вероятности, мы можем найти среднее значение любого статистического параметра ансамбля по записи любого временного ряда ансамбля, применяя временно́е среднее вместо фазового. Более того, этим путем можно найти одновременно любое счетное множество таких параметров ансамбля, и нам нужно знать лишь прошлое одного, почти какого угодно временного ряда ансамбля. Другими словами, если дана вся прошлая история — вплоть до настоящего момента — временного ряда, принадлежащего к ансамблю в статистическом равновесии, то мы можем вычислить с вероятной ошибкой, равной нулю, все множество статистических параметров ансамбля, к которому принадлежит ряд. До сих пор мы установили это для отдельного временного ряда, но сказанное справедливо также для многомерных временных рядов, где вместо одной изменяющейся величины мы имеем несколько одновременно изменяющихся величин.

Теперь мы можем рассмотреть различные задачи, относящиеся к временным рядам. Ограничимся случаями, в которых все прошлое временного ряда может быть задано счетным множеством величин. Например, для [c.129] довольно широкого класса функций f (t) (—&#8734; < t < &#8734;) функция f (t) полностью определена, если известно множество величин

 

,

(n =0, 1, 2, …) (3.17)

Пусть теперь А — некоторая функция от будущих значений t, т. е. от значений аргумента, больших нуля. Тогда мы можем определить совместное распределение величин (a 0, a 1, …, аn, A) из прошлого одного, почти любого временного ряда, если множество функций f берется в самом узком возможном смысле. В частности, если даны все a 0, …, аn, то мы можем найти распределение функции А. Здесь мы прибегаем к известной теореме Никодима об условных вероятностях. Та же теорема гарантирует нам, что это распределение при весьма общих условиях стремится к пределу, когда n &#8594;&#8734;, и этот предел даст нам полные сведения относительно распределения любой будущей величины. Мы можем таким же образом определить по известному прошлому совместное распределение значений любого множества будущих величин или любого множества величин, зависящих от прошлого и от будущего. Если теперь нам дана некоторая подходящая интерпретация «наилучшего значения» статистического параметра или множества статистических параметров — например, в смысле математического ожидания, или медианы, или моды, — то мы можем вычислить это значение из известного распределения и получить предсказание, удовлетворяющее любому желательному критерию надежности предсказания. Мы можем численно оценить качество предсказания, применяя какой угодно статистический показатель качества: среднеквадратическую ошибку, максимальную ошибку, среднюю абсолютную ошибку и т. д. Мы можем вычислить количество информации о любом статистическом параметре или множестве статистических параметров, которое дает нам фиксация прошлого. Можно даже вычислить количество информации о всем будущем после определенного момента, даваемое нам знанием прошлого. Правда, если этот момент — настоящее, то, вообще говоря, мы будем знать о нем из прошлого, и наше знание настоящего будет содержать бесконечно много информации. [c.130]

Другой интересной проблемой является проблема многомерных временных рядов, в которых мы точно знаем лишь прошлое нескольких составляющих. Распределение величины, зависящей от более богатого прошлого, может изучаться методами, весьма близкими к уже рассмотренным. В частности, нам может понадобиться узнать распределение значений другой составляющей или множества значений других составляющих в некоторый момент прошлого, настоящего или будущего. К этому классу относится и общая задача о волновом фильтре. Даны сообщение и шум, скомбинированные некоторым образом в искаженное сообщение, прошлое которого нам известно. Нам известно также статистическое совместное распределение сообщения и шума как временных рядов. Мы ищем распределение значений сообщения в данный момент прошлого, настоящего или будущего. Затем мы разыскиваем оператор, который, будучи применен к прошлому искаженного сообщения, восстановит истинное сообщение наилучшим образом, в данном статистическом смысле. Мы можем также искать статистическую оценку какой-либо меры ошибок в нашем знании сообщения. Наконец, мы можем искать количество информации, которым располагаем в сообщении.

Особенно простым и важным является ансамбль временных рядов, связанный с броуновым движением. Броуновым движением называется движение частицы газа, толкаемой случайными ударами других частиц под действием теплового возбуждения. Теория его была разработана многими исследователями, в частности Эйнштейном, Смолуховским, Перреном и автором[142]. Если только мы не спускаемся по шкале времени до столь малых промежутков, что становятся различимыми отдельные удары частиц по данной частице, броуново движение обнаруживает любопытное явление недифференцируемости. Средний квадрат перемещения частицы в данном направлении за данный промежуток времени пропорционален длине этого промежутка, а перемещения за [c.131] последовательные промежутки времени совершенно не коррелируются между собой. Это вполне согласуется с физическими наблюдениями. Если мы нормируем шкалу броунова движения соответственно шкале времени и будем рассматривать только одну координату х, положив x (t)=0 для t =0, то вероятность того, что при 0&#8804; t 1&#8804; t 2…&#8804; tn частицы находятся между х 1 и x 1+ dx 1 в момент t 1, между х 2 и x2 +dx 2 в момент t 2, …, между xn и xn + n в момент tn, равна

 

. (3.18)

Исходя из создаваемой этим системы вероятностей, вполне однозначной, мы можем ввести на множестве путей, соответствующих различным возможным броуновым перемещениям, такой параметр &#945;, лежащий между 0 и 1, что: 1) каждый путь будет функцией x (t,&#945;), где х зависит от времени t и параметра распределения &#945; и 2) вероятность данному пути находиться в данном множестве S будет равна мере множества значений &#945;, соответствующих путях, находящимся в S. Поэтому почти все пути будут непрерывными и недифференцируемыми.

Весьма интересен вопрос об определении среднего значения произведения x (t 1, &#945;) … x (tn, &#945;) относительно &#945;. Это среднее равно

 

(3.19)

при условии 0 &#8804; t 1 &#8804;…&#8804; tn. Положим

 

(3.20)

[c.132]

где &#955;k,1+&#955;k,2+…+&#955; k,n = n. Тогда выражение (3.19) примет значение

 

. (3.21)

Здесь первая сумма берется по j; вторая — по всем способам разбиения n элементов на пары в группах, включающих соответственно &#955;k,1, …, &#955; k,n элементов; произведение — по парам значений k и q, где &#955;k,1 элементов среди выбранных tk и tq равны t 1, &#955;k,2 элементов равны t 2 и т. д. Отсюда сразу же следует

 

(3.22)

[c.133]

где сумма берется по всем разбиениям величин t 1, …, tn на различные пары, произведение — по всем парам в каждом разбиении. Другими словами, если нам известны средние значения попарных произведений величин x (tj, &#945;), то нам известны и средние значения всех многочленов от этих величин и, следовательно, их полное статистическое распределение.

До сих пор мы рассматривали броуновы перемещения x (tj,&#945;), в которых t положительно. Положив

 

, (3.23)

где &#945; и &#946; имеют независимые равномерные распределения в интервале (0, 1), получим распределение для &#958;(t, &#945;, &#946;), где t пробегает всю бесконечную действительную ось. Существует хорошо известный математический прием отобразить квадрат на прямолинейный отрезок таким образом, что площадь преобразуется в длину. Надо лишь записать координаты квадрата в десятичной форме

 

(3.24)

и положить

 

,

и мы получим искомое отображение, являющееся взаимно однозначным почти для всех точек как прямолинейного отрезка, так и квадрата. Используя эту подстановку, введем

 

. (3.25)

Теперь мы хотим определить в некотором подходящем смысле

 

(3.26)

Сразу приходит мысль определить указанное выражение как интеграл Стильтьеса[143], но это встречает [c.134] препятствие в том, что &#958; представляет собой весьма нерегулярную функцию от t. Однако если К приближается достаточно быстро к нулю при t &#8594;± &#8734; и является достаточно гладкой функцией, то разумно положить

 

(3.27)

При этих условиях мы формально получим

 

(3.28)

Если теперь t и s имеют противоположные знаки, то

 

(3.29)

а если они одного знака и |s|<| t |, то

 

(3.30)

[c.135]

Отсюда

 

(3.31)

В частности,

 

(3.32)

Более того,

 

(3.33)

[c.136]

где сумма берется по всем разбиениям величин &#964;1, …, &#964; n на пары, а произведение — по парам в каждом разбиении. Выражение

 

(3.34)

изображает очень важный ансамбль временных рядов по переменной t, зависящих от некоторого параметра распределения &#947;. Доказанное нами равносильно утверждению, что все моменты и, следовательно, все статистические параметры этого распределения зависят от функции

 

(3.35)

представляющей собой известную в статистике автокорреляционную функцию со сдвигом &#964;. Таким образом, распределение функции f (t, &#947;) имеет те же статистики, что и функция f (t+t 1, &#947;); и действительно, можно доказать, что если

 

, (3.36)

то преобразование параметра &#947; в Г сохраняет меру. Другими словами, наш временной ряд f (t, &#947;) находится в статистическом равновесии.

Далее, если мы рассмотрим среднее значение для

 

(3.37)

то оно состоит в точности из членов выражения

 

(3.38)

[c.137]

и из конечного числа членов, имеющих множителями степени выражения

 

, (3.39)

если последнее стремится к нулю при &#963;&#8594;&#8734;, то (3.38) будет пределом выражения (3.37). Другими словами, распределения функций f (t, &#947;) и f (t +&#963;, &#947;) становятся асимптотически независимыми, когда &#963;&#8594;&#8734;. Более общим, но совершенно аналогичным рассуждением можно показать, что одновременное распределение функций f (t 1, &#947;), …, f (tn, &#947;) и функций f (&#963;+ s 1, &#947;), …, f (&#963;+ sm, &#947;) стремится к совместному распределению первого и второго множества, когда &#963;&#8594;&#8734;. Другими словами, если F [ f (t, &#947;)] — любой ограниченный измеримый функционал, т. е. величина, зависящая от всего распределения значений функции f (t, &#947;) от t, то для него должно выполняться условие

 

. (3.40)

Если F [ f (t, &#947;)] инвариантен при сдвиге по t и принимает только значения 0 или 1, то

 

, (3.41)

т. е. группа преобразований f (t, &#947;) в f (t +&#963;, &#947;) метрически транзитивна. Отсюда следует, что если F [ f (t, &#947;)] — любой интегрируемый функционал от f как функции от t, то по эргодической теореме

 

(3.42)

[c.138]

для всех значений &#947;, исключая множество нулевой меры. Таким образом, мы почти всегда можем определить любой статистический параметр такого временного ряда (и даже любого счетного множества статистических параметров) из прошлой истории одного только параметра. В самом деле, если для такого временного ряда мы знаем

 

(3.43)

то мы знаем Ф(t) почти во всех случаях и располагаем полным статистическим знанием о временном ряде.

Некоторые величины, зависящие от временного ряда такого рода, обладают интересными свойствами. В частности, интересно знать среднее значение величины

 

(3.44)

Формально мы можем записать его в виде

 

. (3.45)

Весьма интересная задача — попытаться построить возможно более общий временной ряд из простых рядов броунова движения. При таких построениях, как подсказывает пример рядов Фурье, разложения типа (3.44) составляют удобные строительные блоки. В частности, исследуем временные ряды специального вида:

 

(3.46)

[c.139]

Предположим, что нам известна функция &#958;(&#964;, &#947;), а также выражение (3.46). Тогда при t 1> t 2 находим, как в (3.45),

 

(3.47)

Умножив на

 

 

и положив s (t 2t 1)= i &#963;, получим при t 2&#8594; t 1

 

(3.48)

Примем K (t 1, &#955;) за новую независимую переменную &#956; и, решая относительно &#955;, получим

 

(3.49)

Тогда выражение (3.48) будет иметь вид

 

(3.50)

Отсюда преобразованием Фурье можно найти

 

(3.51)

как функцию от &#956;, коль скоро &#956; лежит между K (t 1, a) и K (t 1, b). Интегрируя эту функцию по &#956;, найдем

 

(3.52)

[c.140]

как функцию от K (t 1, &#955;) и t 1. Иначе говоря, существует известная функция F (u, v), такая, что

 

(3.53)

Поскольку левая часть этого равенства не зависит от t 1, мы можем обозначить ее через G (&#955;) и положить

 

(3.54)

Здесь F — известная функция, и ее можно обратить относительно первого аргумента, положив

 

, (3.55)

где H — также известная функция. Отсюда

 

(3.56)

Тогда выражение

 

(3.57)

будет известной функцией и

 

(3.58)

откуда

 

, (3.59)

или

 

. (3.60)

Входящую в это выражение константу можно определить из соотношения

 

, (3.61)

или

 

. (3.62)

Очевидно, что если а конечно, то безразлично, какое значение мы ему дадим; в самом деле, наш оператор не [c.141] изменится от прибавления одной и той же величины ко всем значениям &#955;. Поэтому можно взять а =0. Таким образом, мы определили &#955; как функцию от G и, следовательно, G — как функцию от &#955;. Из (3.55) следует, что мы тем самым определили K (t, &#955;). Для завершения расчетов нам нужно только найти b. Это число можно определить сравнением выражений

 

(3.63)

и

 

. (3.64)

Таким образом, если при некоторых условиях, которые еще остается точно сформулировать, временной ряд допускает запись в виде (3.46) и известна функция &#958;(t, &#947;) то мы можем определить функцию K (t, &#955;) в (3.46) и числа а и b с точностью до неопределенной константы, прибавляемой к а, &#955; и b. Не возникает особых трудностей при b &#8594;+&#8734;, также не слишком сложно распространить эти рассуждения на случай а &#8594; —&#8734;. Конечно, предстоит проделать еще немалую работу, рассматривая задачу обращения функций в случае, когда результаты не однозначны, и общие условия справедливости соответствующих разложений. Тем не менее мы по крайней мере сделали первый шаг к решению задачи приведения обширного класса временных рядов к каноническому виду, что чрезвычайно важно для конкретного формального применения теорий предсказания и измерения информации, намеченных выше в этой главе.

Имеется, однако, одно очевидное ограничение, которое мы должны устранить из этого наброска теории временных рядов, а именно необходимость знать &#958;(t, &#947;), и временной ряд, который мы разлагаем в виде (3.46). Вопрос ставится так: при каких условиях временной ряд с известными статистическими параметрами можно представить как ряд, определяемый броуновым движением, или по крайней мере как предел (в том или ином смысле) временных рядов, определяемых броуновым движением? Мы ограничимся временными рядами, [c.142] обладающими свойством метрической транзитивности и даже следующим более сильным свойством: если брать интервалы времени фиксированной длины, но отдаленные друг от друга, то распределения любых функционалов от отрезков временного ряда в этих интервалах приближаются к независимости по мере того, как интервалы отдаляются друг от друга[144]. Соответствующая теория уже излагалась автором.

Если K (t) — достаточно непрерывная функция, то можно показать, что нули величины

 

(3.65)

по теореме М. Каца, почти всегда имеют определенную плотность и что эта плотность при подходящем выборе К может быть сделана сколь угодно большой. Пусть выбрано такое КD, что плотность равна D. Последовательность нулей величины

 

,

от —&#8734; до &#8734; обозначим через Zn (D, &#947;), —&#8734;< n <&#8734;. Конечно, при нумерации этих нулей индекс n определяется лишь с точностью до аддитивной целочисленной константы.

Пусть теперь T (t, &#956;) — произвольный временной ряд от непрерывной переменной t, а &#956; — параметр распределения временных рядов, изменяющийся равномерно в интервале (0, 1). Пусть далее

 

, (3.66)

где Zn нуль, непосредственно предшествующий моменту t. Можно показать, что, каково бы почти ни было &#956;, для любого конечного множества значений t 1, t 2, …, tv переменной х одновременное распределение величин TD (tk, &#956;, &#947;) (k =1, 2, …, v) при D &#8594;&#8734; будет приближаться к одновременному распределению величин T (tk, &#956;) для тех же tk при D &#8594;&#8734;. Но TD (tk, &#956;, &#947;) полностью определяется величинами tk, &#956;, D. Поэтому вполне уместно попытаться выразить TD (tk, &#956;, &#947;) [c.143] для данного D и данного &#956;, либо прямо в виде (3.46), либо некоторым образом в виде временного ряда, распределение которого является пределом (в указанном свободном смысле) распределении этого типа.

Следует признать, что все это изображает скорее программу на будущее, чем уже выполненную работу. Тем не менее эта программа, по мнению автора, дает наилучшую основу для рационального, последовательного рассмотрения многих задач в области нелинейного предсказания, нелинейной фильтрации, оценки передачи информации в нелинейных системах и теории плотного газа и турбулентности. К ним принадлежат, быть может, самые острые задачи, стоящие перед техникой связи.

Перейдем теперь к задаче предсказания для временных рядов вида (3.34). Мы замечаем, что единственным независимым статистическим параметром такого временного ряда является функция Ф(t), определенная формулой (3.35). Это значит, что единственной значащей величиной, связанной с K (t), является

 

(3.67)

Конечно, здесь К — величина действительная.

Применяя преобразование Фурье, положим

 

. (3.68)

Если известно K (s), то известно k (&#969;), и обратно. Тогда

 

(3.69)

Таким образом, знание Ф(t) равносильно знанию k (&#969;) k (—&#969;). Но поскольку K(s) действительно, то

 

, (3.70)

откуда



Поделиться:


Последнее изменение этой страницы: 2017-01-19; просмотров: 124; Нарушение авторского права страницы; Мы поможем в написании вашей работы!

infopedia.su Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав. Обратная связь - 54.90.236.179 (0.202 с.)