![]() Заглавная страница Избранные статьи Случайная статья Познавательные статьи Новые добавления Обратная связь КАТЕГОРИИ: ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ТОП 10 на сайте Приготовление дезинфицирующих растворов различной концентрацииТехника нижней прямой подачи мяча. Франко-прусская война (причины и последствия) Организация работы процедурного кабинета Смысловое и механическое запоминание, их место и роль в усвоении знаний Коммуникативные барьеры и пути их преодоления Обработка изделий медицинского назначения многократного применения Образцы текста публицистического стиля Четыре типа изменения баланса Задачи с ответами для Всероссийской олимпиады по праву ![]() Мы поможем в написании ваших работ! ЗНАЕТЕ ЛИ ВЫ?
Влияние общества на человека
Приготовление дезинфицирующих растворов различной концентрации Практические работы по географии для 6 класса Организация работы процедурного кабинета Изменения в неживой природе осенью Уборка процедурного кабинета Сольфеджио. Все правила по сольфеджио Балочные системы. Определение реакций опор и моментов защемления |
Для дискретного канала без помех
1). Дискретный канал без помех: Основная теорема Шеннона утверждает: если источник информации имеет энтропию H(z), а канал связи обладает пропускной способностью, то: 1. Сообщения, вырабатываемое источником всегда можно закодировать так, чтобы скорость их передачи vz была сколь угодно близка к vz max. 2. Не существует способа кодирования, позволяющего сделать эту скорость больше, чем vz max. Величина Теорема Шеннона (другая). Если источник информации имеет энтропию Н(z), то сообщение всегда можно закодировать так, чтобы средняя длина кода lср была близка к величине Доказательство: В качестве доказательства будем использовать методику Шеннона-Фана. Предположим, что при последовательном делении совокупности кодируемых букв по методу Шеннона-Фана на меньшие группы, каждый раз удается добиться равенства вероятностей двух получаемых групп. 1. После первого деления, получается группа с вероятностью ½; 2. После второго деления, получается группа с вероятностью ¼; и т. д. …. После Если после При выполнении этого условия длина кодового обозначения li будет связана с вероятностью pi соотношением pi=½×li или, преобразуя это выражение, получим li = log В общем случае величина log pi целым числом не будет, поэтому в качестве Величина Далее Шеннон утверждал, что существует такой метод кодирования, при котором длина
В качестве доказательства рассмотрим процедуру кодирования: Пусть имеется алфавит с буквами и заданы вероятности их появления. Расположим буквы алфавита в порядке убывания их вероятностей.
z1 Q1 - числа Qi будем определять следующим образом; Q1 = 0 z2 Q2 Q2=p(z1) … … Q3=p(z1) + p(z2) zn Qn … Qn = p(z1) + p(z2) + … + p(zn-1)
Все Qi≠0, кроме первого, следовательно, совпадения с первым не будет, все Qi – разные и меньше единицы. Шеннон предлагает перевести каждое Qi число в двоичную дробь.
В целом Эти числа можно определить из соотношения: qi – либо 1, либо 0. Пример: Разложение каждого числа ограничивается до тех пор, пока не будет выполняться равенство:
Пример: Дан алфавит состоит из восьми букв и их вероятности. Рассмотрим процедуру кодирования
Средняя длина кодового сообщения Теорема доказана
В случае кодирования буквенных блоков по N букв, получаем новый алфавит z’. m – количество символов во вторичном алфавите, в двоичном - m = 2. Скорость передачи Максимальная скорость
Пример: Сообщения передаются в двоичном коде. Время передачи от нуля до одной секунды, r0 = 1 сек, 1) Символы равновероятны и независимы. 2) Символы неравновероятны
Дискретный канал с помехами
Характеризуется канальной матрицей
![]() Взаимная информация
![]() Определим пропускную способность канала связи, по которому передаются двоичные сигналы со скоростью vx, если вероятность искажения сигнала равна p. Имеет источник информации Разложение выполним в виде диаграммы
![]() ![]() ![]() ![]() ![]() ![]() ![]() Определим среднюю условную энтропию
![]()
Поэтому
![]() Рассмотрим два крайних условия:
1. Вероятность искажения (Р=0), следовательно, помех нет, следовательно, С = vx и она имеет свое максимальное значение 2. Р=1/2. Значение С = 0 – это минимальное значение пропускной способности
Пример: Определить пропускную способность канала связи, способного передавать 100 симв./сек. Каждый символ искажается с вероятностью 0,01.
|
||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Последнее изменение этой страницы: 2021-12-15; просмотров: 58; Нарушение авторского права страницы; Мы поможем в написании вашей работы! infopedia.su Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав. Обратная связь - 3.16.139.62 (0.014 с.) |