Заглавная страница Избранные статьи Случайная статья Познавательные статьи Новые добавления Обратная связь FAQ Написать работу КАТЕГОРИИ: ТОП 10 на сайте Приготовление дезинфицирующих растворов различной концентрацииТехника нижней прямой подачи мяча. Франко-прусская война (причины и последствия) Организация работы процедурного кабинета Смысловое и механическое запоминание, их место и роль в усвоении знаний Коммуникативные барьеры и пути их преодоления Обработка изделий медицинского назначения многократного применения Образцы текста публицистического стиля Четыре типа изменения баланса Задачи с ответами для Всероссийской олимпиады по праву
Мы поможем в написании ваших работ! ЗНАЕТЕ ЛИ ВЫ?
Влияние общества на человека
Приготовление дезинфицирующих растворов различной концентрации Практические работы по географии для 6 класса Организация работы процедурного кабинета Изменения в неживой природе осенью Уборка процедурного кабинета Сольфеджио. Все правила по сольфеджио Балочные системы. Определение реакций опор и моментов защемления |
Содержательный подход к измерению информацииСодержание книги
Похожие статьи вашей тематики
Поиск на нашем сайте Теория Согласно Шеннону, информативность сообщения характеризуется содержащейся в нем полезной информацией — той частью сообщения, которая снимает полностью или уменьшает неопределенность какой-либо ситуации. Неопределенность некоторого события — это количество возможных исходов данного события. Пусть в некотором сообщении содержатся сведения о том, что произошло одно из N равновероятных (равновозможных) событий. Тогда количество информации i, заключенное в этом сообщении, и число событий N связаны формулой: 2i = N (или i=log2N). Эта формула носит название формулы Хартли. В общем случае, если N – количество возможных событий, pi – вероятности отдельных событий, применяется формула Шеннона:
Энтропия (H) – мера неопределенности, выраженная в битах. Количество информации I и энтропия H характеризуют одну и ту же ситуацию, но с качественно противоположенных сторон. I – это количество информации, которое требуется для снятия неопределенности H. Когда неопределенность снята полностью, количество полученной информации I равно изначально существовавшей неопределенности H.
Примеры 1. Сколько бит информации несет сообщение о том, что из 256 одинаковых по размеру, но разноцветных шаров наугад выбрали красный шар? Решение: Выбор шара любого цвета, в том числе и красного – события равновероятностные, следовательно, i = log2256 = 8(бит). Ответ: сообщение о том, что из 256 одинаковых по размеру, но разноцветных шаров наугад выбрали красный шар, несет 8бит. 2. В гимназический класс школы были отобраны ученики из 128 претендентов. Какое количество учеников было отобрано, если сообщение о том, кто был отобран, содержит 140 битов информации? Решение: Определим, сколько бит содержит сообщение об одном ученике. 2i = N, 2i = 128, i = 7(бит). Т.о. было отобрано 140 / 7 = 20 человек. Ответ: 20 человек было отобрано в гимназический класс. 3. В озере живут караси и окуни. Вероятность попадания на удочку карася – 0,75; окуня – 0,25. Сколько информации содержится в сообщении, что рыбак поймал рыбу? Решение: По формуле Шеннона
Ответ: в сообщении, что рыбак поймал рыбу содержится 0,8 бит информации. Задачи для самостоятельного решения 1. В барабане для розыгрыша лотереи находится 32 шара. Сколько информации содержится в сообщении о первом выпавшем номере (например, выпал номер 15)? 2. При угадывании целого числа в диапазоне от 1 до N было получено 6 бит информации. Чему равно N? 3. Сообщение о том, что из корзины с разноцветными шарами (все шары разного цвета) достали зеленый шар, содержит 4 бита информации. Сколько шаров было в корзине? 4. Из папки NEW одновременно удалили 10 файлов. Сообщение о названиях удаленных файлов содержит 80 бит информации. Сколько файлов было всего в папке? 5. В доме 4 подъезда, в каждом из которых 16 этажей. Какое количество информации содержится в сообщении о том, что Иван живет на пятом этаже в третьем подъезде? 6. Система может находиться в трех различных состояниях с вероятностями: в первом (худшем) состоянии с вероятностью 0,1; во втором – 0,4; в третьем (лучшем) – 0,5. Чему равно количество информации о произвольном состоянии системы?
|
||||||||
|
Последнее изменение этой страницы: 2016-12-16; просмотров: 1662; Нарушение авторского права страницы; Мы поможем в написании вашей работы! infopedia.su Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав. Обратная связь - 216.73.216.108 (0.012 с.) |