Заглавная страница Избранные статьи Случайная статья Познавательные статьи Новые добавления Обратная связь FAQ Написать работу КАТЕГОРИИ: ТОП 10 на сайте Приготовление дезинфицирующих растворов различной концентрацииТехника нижней прямой подачи мяча. Франко-прусская война (причины и последствия) Организация работы процедурного кабинета Смысловое и механическое запоминание, их место и роль в усвоении знаний Коммуникативные барьеры и пути их преодоления Обработка изделий медицинского назначения многократного применения Образцы текста публицистического стиля Четыре типа изменения баланса Задачи с ответами для Всероссийской олимпиады по праву
Мы поможем в написании ваших работ! ЗНАЕТЕ ЛИ ВЫ?
Влияние общества на человека
Приготовление дезинфицирующих растворов различной концентрации Практические работы по географии для 6 класса Организация работы процедурного кабинета Изменения в неживой природе осенью Уборка процедурного кабинета Сольфеджио. Все правила по сольфеджио Балочные системы. Определение реакций опор и моментов защемления |
Единицы измерения энтропии и информацииСодержание книги Похожие статьи вашей тематики
Поиск на нашем сайте
Итак, исторически первые шаги к введению понятия энтропии были сделаны еще в 1928 г. американским инженером-связистом Р.Хартли, предложившим характеризовать степень неопределенности опыта с k различными исходами числом log k. Замерунеопределенностиопыта, имеющего k равновероятныхисходов, приняли число Кроме того, используется дит – это энтропия системы с десятью равновероятными состояниями, вычисленная с помощью логарифма с основанием десять. Иногда бурт физическую систему с е состояниями, тогда натуральную единицу количества информации называют нитом, при этом основание логарифма в формуле Шеннона равно е. Взаимосвязь между единицами количества информации:
С точки зрения теории кодирования существует объяснение, почему используется двоичная система (основание логарифма).
Как видим, оптимальное количество букв в алфавите находится между 3 и 4. То есть, лучшей была бы троичная система, но ее труднее реализовать. Двоичная система, так же как и четверичная – почти оптимальные. Но легче реализовать двоичную систему.
1.4. Свойства функции энтропии Свойство 1. Энтропия не может принимать отрицательных значений. Доказательство Так как всегда Свойство 2. Функция
, показывающий, как меняется энтропия при изменении р от0 до 1.
Для того чтобы представить себе характер зависимости функции Свойство 3. Энтропия равна нулю:
если вероятность одного из исходов опыта равна 1, а остальные равны нулю. Т.е. энтропия равна нулю, если возможен только один исход опыта (с вероятностью равной единице). Доказательство Очевидно,
т.е. Свойство 4. Всякое изменение вероятностей
Доказательство Энтропия исходных вероятностей равна Пусть Нам нужно доказать, что
где
Свойство 5. Энтропия максимальна, когда все исходы опыта равновероятны. Доказательство На Найдем локальный экстремум. Для этого рассмотрим функционал
Берем первые частные производные по
Поскольку правые части всех выражений одинаковые, можно сделать вывод о равновероятных состояниях исходов опыта, то есть:
Тогда Получили выражение для максимальной энтропии, соответствующее формуле Хартли.
Иными словами, среди всех опытов, имеющих k исходов, наиболее неопределенным является опыт с распределением вероятностей:
И функция
Для одного же исхода опыта Свойство 6. Функция
Это соотношение означает, что неопределенность
получаемого отождествлением двух первых исходов опыта Свойство 7. Математическое ожидание информации есть энтропия (без доказательства)
Пример 1. Пусть из многолетних наблюдений за погодой известно, что для определенного пункта вероятность того, что 15 июня будет идти дождь, равна 0,4, а вероятность того, что в указанный день дождя не будет, равна 0,6. пусть далее для этого же пункта вероятность того,что 15 ноябрябудет идти дождь равна 0,65, вероятность того, что 15 ноября будет идти снег, равна 0,15 и вероятность того, что 15 ноября вовсе не будет осадков, равна 0,2. Если из всех характеристик погоды интересоваться лишь вопросом о наличии и о характере осадков, то в какой из двух перечисленных дней погоду в рассматриваемом пункте следует считать более неопределенной? Решение Согласно тому, как понимается здесь слово «погода», опыта опыт
опыт
Поэтому энтропии наших двух опытов равны
и
Следовательно, погоду 15 ноября в рассматриваемом пункте следует считать более неопределенной, чем 15 июня. Полученный результат, разумеется, существенно зависит от того, как понимать слово «погода»; без точного разъяснения того, что под этим понимается, наша задача вообще не имеет смысла. В частности, если интересоваться только тем, будут ли в рассматриваемый день осадки или нет, то исходы «дождь» и «снег» опыта
Поэтому при таком понимании погоды надо считать, что 15 ноября погода является менее неопределенной, чем 15 июня. Если же интересоваться не только осадками, но и, например, температурой воздуха, то решение задачи становится более сложным и требует привлечения дополнительных данных о распределении значений температуры в рассматриваемом пункте 15 июня и 15 ноября. Соображения, развитые в решении этой задачи, представляют интерес для оценки качества предсказания погоды по тому или иному методу (аналогично обстоит дело и в случае любого другого прогноза). В самом деле, при оценке качества прогноза нельзя учитывать лишь его точность (т. е. процент случаев, в которых прогноз оправдывается); иначе нам пришлось бы высоко оценивать любой прогноз, имеющий большие шансы оказаться правильным. В том числе, например, и предсказание отсутствия снега в Киеве 1 июня, не представляющее, разумеется, никакой ценности. При сравнении качества различных прогнозов следует учитывать не только их точность, но и трудность удачного прогноза, которую можно характеризовать степенью неопределенности соответствующего опыта. Пример 2. Найти энтропию непрерывной случайной величины, распределенной по показательному закону
Решение Применяя одно из свойств плотности распределения, находим
[применяя формулу интегрирования по частям, получаем]
Пример 3. Сравнить неопределенность, приходящуюся на каждую букву источника информации русского языка и характеризующуюся ансамблем, представленным в таблице (знаком «–» обозначен промежуток между словами), с неопределенностью того же источника, но при равновероятном использовании букв.
Решение При одинаковых вероятностях появления всех 32 (считая промежутки между словами и буквы е,ё и ъ,ь за одну букву) букв алфавита неопределенность, приходящаяся на одну букву, равна (см. формулу (1.5)):
Энтропия источника, характеризующегося вышеуказанной таблицей, находится по формуле (1.3):
Таким образом, неравномерность распределения вероятностей использования букв снижает энтропию источника с 5 до 4,42 бит. Пример 4. Определить энтропию сообщения, состоящего из 5 букв, если общее число букв в алфавите равно 32 и все пятибуквенные сообщения равновероятны. Решение Общее число пятибуквенных сообщений Используя (1.5), получаем:
Пример 5. Заданы ансамбли U и V двух дискретных случайных величин
Сравните их энтропии. Решение Поскольку энтропия не зависит от конкретных значений случайной величины, а вероятности их появления у
|
||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
|
Последнее изменение этой страницы: 2016-09-05; просмотров: 957; Нарушение авторского права страницы; Мы поможем в написании вашей работы! infopedia.su Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав. Обратная связь - 216.73.216.214 (0.008 с.) |