Заглавная страница Избранные статьи Случайная статья Познавательные статьи Новые добавления Обратная связь FAQ Написать работу КАТЕГОРИИ: ТОП 10 на сайте Приготовление дезинфицирующих растворов различной концентрацииТехника нижней прямой подачи мяча. Франко-прусская война (причины и последствия) Организация работы процедурного кабинета Смысловое и механическое запоминание, их место и роль в усвоении знаний Коммуникативные барьеры и пути их преодоления Обработка изделий медицинского назначения многократного применения Образцы текста публицистического стиля Четыре типа изменения баланса Задачи с ответами для Всероссийской олимпиады по праву
Мы поможем в написании ваших работ! ЗНАЕТЕ ЛИ ВЫ?
Влияние общества на человека
Приготовление дезинфицирующих растворов различной концентрации Практические работы по географии для 6 класса Организация работы процедурного кабинета Изменения в неживой природе осенью Уборка процедурного кабинета Сольфеджио. Все правила по сольфеджио Балочные системы. Определение реакций опор и моментов защемления |
Энтропия конечной вероятностной схемыСодержание книги
Поиск на нашем сайте
Пусть задана конечная вероятностная схема A = 1,2,..., а,..., n - исходы (буквы сообщения) вероятностной схемы из множества (алфавита) А= {1,2,...,а,...,п}, р(1),р(2),...,р(а),..., р(п) - вероятности этих сообщений так, что совокупность событий является полной группой
Метод количественной оценки меры неопределённости вероятностных схем предложил Клод Шеннон. Количеством информации (неопределенности) в сообщении а h(a)=- log p(a). Среднее значение
называется энтропией конечной вероятностной схемы или количеством информации. Термин количество информации Η применяют исходя из предположения, что произошла реализация (некоторый исход) в вероятностной схеме, в результате чего мы получаем информацию об исходе реализации вероятностной схемы, мера неопределенности Η употребляется в связи с измерением неопределённости возможных не реализованных исходов вероятностной схемы. Из определения энтропии конечной вероятностной схемы следует, что она всегда неотрицательна: Н(р(1),р(2),..., р(n))>0. Важное свойство энтропии конечной вероятностной схемы (р(1),р(2),..., р(n)) заключается в том, что она максимальна и равна log n при р(а)=1/n, а Рассмотрим две конечных схемы A = В = Схемы А и В могут быть зависимы между собой в том смысле, что для вероятности р(а,Ь) одновременного выполнения событий a, b выполняется неравенство: p(a,b) ≠ p(a)q(b). Рассмотрим объединенную схему С=АВ вида C =
Тогда выражение для энтропии объединённой схемы АВ имеет вид
Обозначая через p(b/a)=p(ab)/p(a), Ь B/a = Для каждой из таких схем можно определить энтропию:
Среднее значение по ансамблю называется условной энтропией схемы В при условии схемы А и определяется выражением:
Исходя из установленного выше понятия энтропии как меры неопределенности случайного сообщения, введем меру количества информации о сообщении «а», содержащемся в сообщении «Ь», как разность между количеством неопределенности (априорной) в сообщении «а» и количеством неопределенности в сообщении «а» при известном сообщении «Ь». Количеством информации о сообщении «а», содержащемся в сообщении «Ь», называется величина i(ab)=h(a)-h(a/b)=log2p(a/b)/p(a). Среднее значение по ансамблю называется взаимной информацией между А и В и определяется выражением:
=Н(А)-Н(А/В)=Н(В)-Н(В/А).
В стационарной эргодической модели открытые (содержательные) сообщения AL= a1а2... aL представляются отрезками реализаций стационарной эргодической случайной последовательности. Случайная последовательность называется стационарной, если распределение вероятностей отрезка этой последовательности ai+1 ai+2... ai+k не зависит от i при любом конечном значении к. Если на открытые сообщения не накладывается никаких регламентирующих ограничений, то с большой уверенностью можно считать, что указанное свойство будет для них выполняться. Эргодичность случайной последовательности, представляющей осмысленное сообщение, означает, что для любых двух отрезков текста осмысленного содержания в потоке осмысленных сообщений найдется сообщение, которое содержит в себе оба этих отрезка. Каждая буква сообщения, при условии что буквы появляются в нем случайно, равновероятно, независимо могла бы нести информацию, равную Hmax=log2 n, где n - число букв в алфавите. В это же время средняя энтропия Η буквы в обычном открытом тексте, как показывают экспериментальные расчеты, значительно меньше, и, следовательно, величина Нmах - Η характеризует неиспользованные возможности в «сжатии» информации, содержащейся в открытом тексте. Величину
называют избыточностью языка, а величину Н/Нmax - коэффициентом cжатия. Избыточность языка показывает, какую часть букв открытого текста можно вычеркнуть до наступления нечитаемости сообщения. На основе таких экспериментов и оценивают избыточность D открытых текстов, откуда получают оценку H = (1-D)Hmax =(1-D) где n - мощность алфавита открытых текстов.
|
||||
|
Последнее изменение этой страницы: 2017-02-10; просмотров: 1118; Нарушение авторского права страницы; Мы поможем в написании вашей работы! infopedia.su Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав. Обратная связь - 216.73.216.16 (0.009 с.) |