Информационные характеристики дискретных сообщений  и сигналов 


Мы поможем в написании ваших работ!



ЗНАЕТЕ ЛИ ВЫ?

Информационные характеристики дискретных сообщений  и сигналов



 

Чтобы сравнивать между собой различные источники сообщений и различные каналы связи необходимо ввести некоторую количественную меру, позволяющую оценивать содержащуюся в сообщении и переносимую сигналами информацию. Строгие методы количественного определения информации были предложены К. Шенноном в 1948г. и привели к построению теории информации, являющейся математической основой теории связи, информатики и ряда смежных отраслей науки и техники.

Рассмотрим вначале основные идеи этой теории применительно к дискретному источнику, выдающему последовательность сообщений. Пусть этот источник посылает сообщение a из некоторого ансамбля . Найдём определение количества информации, содержащейся в этом сообщении, исходя из следующих естественных требований:

1. Количество информации должно быть аддитивной величиной, то есть в двух независимых сообщениях оно должно равняться сумме количества информации в каждом из них.

2. Количество информации в сообщении о достоверном событии равно нулю.

3. Количество информации не должно зависеть от качественного содержания сообщения, в частности, от степени его важности для получателя, возможных последствий его передачи, эмоциональной окраски и т.д.

Итак, для определения количества информации в сообщении необходимо основываться только на таком параметре, который характеризует в самом общем виде сообщение a из ансамбля A. таким параметром, очевидно, является вероятность р(a) того, что источник посылает данное сообщение. Следовательно, количество информации i (a), содержащееся в сообщении a, должно быть функцией от т.е.  

Дальнейшее уточнение искомого определения не составляет труда, если учесть первые два требования. Пусть a 1 и a 2  - два независимых сообщения. Вероятность того, что источник пошлёт оба эти сообщения (одно за другим), равна р(a 1 , a 2)= р(a 1). р(a 2), а информация, содержащаяся в них, должна удовлетворять условию аддитивности, то есть i (a 1 , a 2)= i (a 1)+ i (a 2). Следовательно, необходимо найти функцию от вероятности р, обладающую тем свойством, что при перемножении двух аргументов значения функции складываются. Единственная такая функция – это логарифмическая i (a)= kl og р(a), где k -любая постоянная, а логарифм берётся по любому основанию. При таком определении количества информации выполняется и второе требование: при р(a) =1 i (a)= kl og1=0. Чтобы количество информации измерять неотрицательным числом, будем всегда выбирать   k = -1, поскольку l og р(a) всегда отрицателен (если основание логарифма больше единицы). Поэтому:

                                                         (10.1)

Основание логарифма в (10.1) чаще выбирают равным 2. Полученная при этом единица информации, носит название двоичная единица, или бит. Она равна количеству информации в сообщении о событии, происходящем с вероятностью 0,5, то есть таком, которое с равной вероятностью может произойти или не произойти. Такая единица наиболее удобна вследствие широкого использования двоичных кодов в вычислительной технике и связи. В теоретических исследованиях иногда применяют натуральный логарифм, измеряя информацию в натуральных единицах. Натуральная единица в  раза больше двоичной. Мы будем пользоваться в основном двоичными единицами, и в дальнейшем обозначение l og будет означать двоичный логарифм.

Энтропия характеризует меру разнообразия сообщений источника.

Энтропия является основной характеристикой источника, чем она выше, тем труднее запомнить (записать) сообщение или передать его по каналу связи. Необходимая во многих случаях затрата энергии на передачу сообщения пропорциональна его энтропии.

Основные свойства энтропии:

1. Энтропия неотрицательна. Она равна нулю только для “вырожденного” ансамбля, когда одно сообщение передаётся с вероятностью 1,а остальные имеют нулевую вероятность.

2. Энтропия аддитивна. То есть если рассматривать последовательность из n сообщений как одно “укрупнённое” сообщение, то энтропия источника таких укрупнённых сообщений будет в n раз больше энтропии исходного источника.

3.   Если ансамбль содержит K  различных сообщений,  причём равенство имеет место только тогда, когда все сообщения передаются равновероятно и независимо. Число K называется объёмом алфавита источника.

В частности, для двоичного источника без памяти, когда K = 2, энтропия максимальна при P (a 1)= P (a 2)=0,5 и равна l og2=1бит. Зависимость энтропии этого источника от P (a 1)=1- P (a 2) показана на рисунке.

То есть количество информации в сообщении тем больше, чем оно менее вероятно, или, иначе, чем оно более неожиданно.

 

Если источник передаёт последовательность зависимых между собой сообщений, то получение предшествующих сообщений может изменить вероятность последующего, а следовательно, и количество информации в нём. Оно должно определяться по условной вероятности передачи данного сообщения an при известных предшествующих an -1 ,   an -2,…:

                                                       (10.2)           

Определённое выше количество информации является случайной величиной, поскольку сами сообщения случайные. Для характеристики всего ансамбля (или источника) сообщений используется математическое ожидание количества информации, называемое энтропией и обозначаемое H (A):

                                                        (10.3)

Здесь математическое ожидание, как всегда, обозначает усреднение по всему ансамблю сообщений. При этом должны учитываться все вероятностные связи между различными сообщениями.

Чем больше энтропия источника, тем больше степень неожиданности передаваемых им сообщений в среднем, то есть тем более неопределённым является ожидаемое сообщение. Поэтому энтропию часто называют мерой неопределённости. После приёма сообщения, если оно принимается верно, всякая неопределённость устраняется. Это позволяет трактовать количество информации как меру уменьшения неопределённости.

Величина

                                         (10.4)         

называется избыточностью источника с объёмом алфавита K. Она показывает, какая доля максимально возможной при этом алфавите энтропии не используется источником.

Некоторые источники передают сообщения с фиксированной скоростью, затрачивая в среднем время T на каждое сообщение.

Производительностью (в бит на секунду) такого источника H ’(A) назовём суммарную энтропию сообщений, переданных за единицу времени:

                                                               (10.5)

                                                                                      

Взаимная информация

 

Определим теперь информацию, содержащуюся в одном ансамбле относительно другого, например, в принятом сигнале относительно переданного сообщения. Для этого рассмотрим сообщение двух дискретных ансамблей A и B, вообще говоря, зависимых. Его можно интерпретировать как пару ансамблей сообщений, либо как ансамбли сообщения и сигнала, с помощью которого сообщение передаётся, либо как ансамбли сигналов на входе и выходе канала связи и т. д. Пусть P (ak, bl)совместная вероятность реализаций ak  и bl. Cовместной энтропией ансамблей A и B будем называть:

                                                (10.6)

                                                                                      

Введём также понятие условной энтропии:

                                               (10.7)                 

где P (ak / bl)- условная вероятность ak, если имеет место bl.

Из теоремы умножения вероятностей   

следует, что .        (10.8) 

Для условной энтропии справедливо двойное неравенство:

                                                      (10.9)        

Рассмотрим два крайних случая:

1.Равенство  имеет место в том случае, когда, зная реализацию , можно точно установить реализацию . Другими словами, содержит полную информацию об .

2.Другой крайний случай, когда  имеет место, если события  и  независимые. В этом случае знание реализации  не уменьшает неопределённости , т.е. не содержит никакой информации об А.

В общем случае, что имеет место на практике, условная энтропия  меньше безусловной и знание реализации  снимает в среднем первоначальную неопределённость . Естественно, назвать разность  количеством информации, содержащейся в  относительно . Её называют также взаимной информацией между  и  и обозначают :

                                                        (10.10)

Подставляя в эту формулу значения H(A) и H(A/B) выразим взаимную информацию через распределение вероятностей:

     (10.11)

 Если воспользоваться теоремой умножения , то можно записать  в симметричной форме т.к. :

                                                             (10.12)

 Взаимная информация измеряется в тех же единицах, что и энтропия. Величина  показывает, сколько мы в среднем получаем бит информации о реализации ансамбля , наблюдая реализацию ансамбля .

Сформулируем основные свойства взаимной информации:

1. , причём равенство имеет место тогда и только тогда, когда  и   независимы между собой

2. , то есть  содержит столько же информации относительно , сколько  содержит относительно . Это свойство вытекает из симметрии выражения. Поэтому можно также записать:

                                                        (10.13)      

3. , причём равенство имеет место, когда по реализации   можно точно установить реализацию .

4. , причём равенство имеет место, когда по реализации    можно точно установить реализацию .

5. Полагая  и учитывая, что  получим:

                                                                      (10.14)      

Это позволяет интерпретировать энтропию источника как его собственную информацию, то есть информацию, содержащуюся в ансамбле  о самом себе.

Пусть  - ансамбль дискретных сообщений, а - ансамбль дискретных сигналов, в которые преобразуются сообщения . Тогда  в том и только в том случае, когда преобразование  обратимо. При необратимом преобразовании  и разность  можно назвать потерей информации при преобразовании . Её называют ненадёжностью. Таким образом, информация не теряется только при обратимых преобразованиях.

Если - среднее время передачи одного сообщения, то разделив на  формулы H(A/B) и I(A,B) и обозначая:

                              (10.15)

получим соответствующие равенства для энтропии и количества информации, рассчитанных не на одно сообщение, а на единицу времени. Величина  называется скоростью передачи информации от  к (или наоборот).

Рассмотрим пример: если - ансамбль сигналов на входе дискретного канала, а - ансамбль сигналов на его выходе, то скорость передачи информации по каналу.

                         (10.16)

- производительность источника передаваемого сигнала .

 “производительность канала”, то есть полная собственная информация о принятом сигнале за единицу времени.

 

 

Величина  представляет собой скорость “утечки” информации при прохождении через канал, а - скорость передачи посторонней информации, не имеющий отношения к  и создаваемой присутствующими в канале помехами. Соотношение между  и  зависит от свойств канала. Так, например, при передаче телефонного сигнала по каналу с узкой полосой пропускания, недостаточной для удовлетворительного воспроизведения сигнала, и с низким уровнем помех теряется часть полезной информации, но почти не получается бесполезной. В этом случае . Если же расширяется полоса, сигнал воспроизводится точно, но в паузах ясно прослушиваются “наводки” от соседнего телефонного канала, то, почти не теряя полезной информации, можно получить много дополнительной, как правило, бесполезной информации и .



Поделиться:


Последнее изменение этой страницы: 2021-12-15; просмотров: 61; Нарушение авторского права страницы; Мы поможем в написании вашей работы!

infopedia.su Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав. Обратная связь - 3.144.42.196 (0.034 с.)