![]() Заглавная страница Избранные статьи Случайная статья Познавательные статьи Новые добавления Обратная связь FAQ Написать работу КАТЕГОРИИ: ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ТОП 10 на сайте Приготовление дезинфицирующих растворов различной концентрацииТехника нижней прямой подачи мяча. Франко-прусская война (причины и последствия) Организация работы процедурного кабинета Смысловое и механическое запоминание, их место и роль в усвоении знаний Коммуникативные барьеры и пути их преодоления Обработка изделий медицинского назначения многократного применения Образцы текста публицистического стиля Четыре типа изменения баланса Задачи с ответами для Всероссийской олимпиады по праву ![]() Мы поможем в написании ваших работ! ЗНАЕТЕ ЛИ ВЫ?
Влияние общества на человека
Приготовление дезинфицирующих растворов различной концентрации Практические работы по географии для 6 класса Организация работы процедурного кабинета Изменения в неживой природе осенью Уборка процедурного кабинета Сольфеджио. Все правила по сольфеджио Балочные системы. Определение реакций опор и моментов защемления |
Энтропия сложных событий. Условная энтропияСодержание книги Поиск на нашем сайте
Мера неопределенности, используемая в решении задач, касающихся работы линий связи, например, должна быть приспособлена, в первую очередь, для оценки степени неопределенности сложных «составных событий», состоящих из целой совокупности следующих друг за другом испытаний. Пусть опыт
опыт
Рассмотрим сложный опыт где, например,
Это правило распространяется и на большее количество независимых величин. Если задана матрица вероятностей объединения двух исходов опытов
где Если опыты
где и
Величину
Таким образом, энтропия объединения двух статистически связанных опытов Для объединения любого числа зависимых опытов:
Укажем некоторые важнейшие свойства величины 1. Очевидно, что это есть неотрицательное число. Кроме того,
Таким образом, случаи, когда исход опыта 2. Если все вероятности
3. Если же опыта
4. Так как сложные опыты
Отсюда следует, в частности, что, зная энтропии
5. Поскольку
при имеет место при Пример 1. Определить энтропии
Решение Вычислим безусловные вероятности исходов каждого опыта как суммы общих вероятностей по строкам и столбцам заданной матрицы:
Находим условные вероятности (чтобы воспользоваться формулой (1.9))
По формуле (1.7) получаем:
По формуле (1.8) можно проверить результаты вычислений:
Пример 2. Известны энтропии двух зависимых источников:
При решении удобно использовать графическое представление связи между энтропиями. Из рисунка 3 видим, что максимального значения
ГЛАВА 2. ИНФОРМАЦИЯ Понятие информации
Понятие информации весьма широко и многосторонне, поэтому оно имеет целый ряд определений и синонимов: информация – это обозначение содержания, полученного из внешнего мира, или отрицание энтропии (Винер) или негэнтропия (Бриллюэн); это коммутация, связь (Шеннон); ограничение разнообразия (Эшби); оригинальность, мера сложности (Моль); вероятность выбора (Майлз Мартин) и т. д. К этим «определениям» следует добавить понятие информации как данных, ценных для принятия решений. Начиная с работ Н. Винера, К. Шеннона, Дж.(Яноша) фон Неймана до настоящего времени каждая попытка дать универсальное определение информации терпит крах из-за неразрешимости основного вопроса: един ли для всех «приемников» информации предлагаемый критерий отбора из всего множества воздействий материального мира тех и только тех воздействий, которые несут информацию для данного «приемника»?
В настоящее время наиболее распространено убеждение, что такого универсального критерия и, следовательно, универсального определения информации не существует. Специфика информации определяется в первую очередь основной целью функционирования системы. С этой точки зрения информацией являются все сведения об объекте, полезные «приемнику» (человеку, коллективу, человеко-машинной системе) для решения задачи (достижения цели). Если данные сведения не нужны, они представляют собой «шум». Получение информации всегда связано с уменьшением неопределенности. Среднее количество информации, которое содержится в каждом исходе опыта, относительно любого еще не наступившего исхода равняется разности априорной и апостериорной энтропий опыта:
Априорной энтропией называется неопределенность, которая высчитывается до наступления исхода опыта. Она равняется Апостериорной энтропией называют среднюю неопределенность опыта после наступления всех исходов. Она равна условной энтропии Таким образом,
Или согласно определению энтропии и правилу сложения вероятностей
Иначе
Разность (2.1) указывает, насколько осуществление опыта Так как понятие информации, связанное с определенными изменениями в условиях опыта Нередко при рассмотрении опытов
Для непрерывных случайных величин
Разность между величиной максимальной энтропии Нmax и реальной энтропии Н соответствует количеству избыточной (предсказуемой) информации In. Таким образом: In = Hmax – H. (2.4) Кроме того, затрагивая вопросы кодирования нельзя не упомянуть об эффективности и избыточности кодов. Эффективность кода, т.е. колическтво информации, передаваемое в среднем в единицу времени
где Избыточность кода вычисляется по формуле
Если избыточность источника равна нулю, то формируемые им сообщения оптимальны в смыле наибольшего переносимого количества информации. Пример. Сообщение состоит из последовательности трех букв А, В и С. Вероятности их появления не зависят от предыдущего сочетания букв и равны Р (А) = 0,7, Р (В) = 0,2 и Р (С) = 0,1. Произвести кодирование по методу Шеннона-Фано отдельных букв и двухбуквенных сочетаний. Сравнить коды по их избыточности.
Для отдельных букв имеем. Здесь фигурными скобками показано разбиение на группы.
Для двухбуквенных сочетаний вначале высчитаем вероятности их появлений. Максимальная энтропия равна
Аналогично для второго
|
|||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Последнее изменение этой страницы: 2016-09-05; просмотров: 743; Нарушение авторского права страницы; Мы поможем в написании вашей работы! infopedia.su Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав. Обратная связь - 3.17.76.80 (0.012 с.) |