Алфавитный подход к измерению информации.



Мы поможем в написании ваших работ!


Мы поможем в написании ваших работ!



Мы поможем в написании ваших работ!


ЗНАЕТЕ ЛИ ВЫ?

Алфавитный подход к измерению информации.



а теперь познакомимся с другим способом измерения информации. этот способ не связывает количество информации с содержанием сообщения, и называется он алфавитным подходом.

при алфавитном подходе к определению количества информации отвлекаются от содержания информации и рассматривают информационное сообщение как последовательность знаков определенной знаковой системы.

проще всего разобраться в этом на примере текста, написанного на каком-нибудь языке. для нас удобнее, чтобы это был русский язык.

все множество используемых в языке символов будем традиционно называть алфавитом. обычно под алфавитом понимают только буквы, но поскольку в тексте могут встречаться знаки препинания, цифры, скобки, то мы их тоже включим в алфавит. в алфавит также следует включить и пробел, т.е. пропуск между словами.

полное количество символов алфавита принято называть мощностью алфавита. будем обозначать эту величину буквой n. например, мощность алфавита из русских букв и отмеченных дополнительных символов равна 54.

представьте себе, что текст к вам поступает последовательно, по одному знаку, словно бумажная ленточка, выползающая из телеграфного аппарата. предположим, что каждый появляющийся на ленте символ с одинаковой вероятностью может быть любым символом алфавита. в действительности это не совсем так, но для упрощения примем такое предположение.

в каждой очередной позиции текста может появиться любой из n символов. тогда, согласно известной нам формуле, каждый такой символ несет i бит информации, которое можно определить из решения уравнения: 2i = 54. получаем: i = 5.755 бит.

вот сколько информации несет один символ в русском тексте! а теперь для того, чтобы найти количество информации во всем тексте, нужно посчитать число символов в нем и умножить на i.

посчитаем количество информации на одной странице книги. пусть страница содержит 50 строк. в каждой строке — 60 символов. значит, на странице умещается 50x60=3000 знаков. тогда объем информации будет равен: 5,755 х 3000 = 17265 бит.

при алфавитном подходе к измерению информации количество информации зависит не от содержания, а от размера текста и мощности алфавита.

при использовании двоичной системы (алфавит состоит из двух знаков: 0 и 1) каждый двоичный знак несет 1 бит информации. интересно, что сама единица измерения информации «бит» получила свое название от английского сочетания «binary digit» - «двоичная цифра».

применение алфавитного подхода удобно прежде всего при использовании технических средств работы с информацией. в этом случае теряют смысл понятия «новые — старые», «понятные — непонятные» сведения. алфавитный подход является объективным способом измерения информации в отличие от субъективного содержательного подхода.

удобнее всего измерять информацию, когда размер алфавита n равен целой степени двойки. например, если n=16, то каждый символ несет 4 бита информации потому, что 24 = 16. а если n =32, то один символ «весит» 5 бит.

ограничения на максимальный размер алфавита теоретически не существует. однако есть алфавит, который можно назвать достаточным. с ним мы скоро встретимся при работе с компьютером. это алфавит мощностью 256 символов. в алфавит такого размера можно поместить все практически необходимые символы: латинские и русские буквы, цифры, знаки арифметических операций, всевозможные скобки, знаки препинания....

поскольку 256 = 28, то один символ этого алфавита «весит» 8 бит. причем 8 бит информации — это настолько характерная величина, что ей даже присвоили свое название — байт.

1 байт = 8 бит.

сегодня очень многие люди для подготовки писем, документов, статей, книг и пр. используют компьютерные текстовые редакторы. компьютерные редакторы, в основном, работают с алфавитом размером 256 символов.

в этом случае легко подсчитать объем информации в тексте. если 1 символ алфавита несет 1 байт информации, то надо просто сосчитать количество символов; полученное число даст информационный объем текста в байтах.

пусть небольшая книжка, сделанная с помощью компьютера, содержит 150 страниц; на каждой странице — 40 строк, в каждой строке — 60 символов. значит страница содержит 40x60=2400 байт информации. объем всей информации в книге: 2400 х 150 = 360 000 байт.

в любой системе единиц измерения существуют основные единицы и производные от них.

для измерения больших объемов информации используются следующие производные от байта единицы:

1 килобайт = 1Кб = 210 байт = 1024 байта.

1 мегабайт = 1Мб = 210 Кб = 1024 Кб.

1 гигабайт = 1 Гб = 210 Мб = 1024 мб.

название условное обозначение соотношенИе с другИмИ едИнИцамИ
КИлобИт КбИт 1 Кбит = 1024 бит = 210 бит ? 1000 бит
мегабИт мбИт 1 мбИт = 1024 КбИт = 220 бИт ? 1 000 000 бИт
гИгабИт гбИт 1 гбИт = 1024 мбИт = 230 бИт ? 1 000 000 000 бИт
КИлобайт Кбайт (Кб) 1 Кбайт = 1024 байт = 210 байт ? 1000 байт
мегабайт мбайт (мб) 1 мбайт = 1024 Кбайт = 220 байт ? 1 000 000 байт
гИгабайт гбайт (гб) 1 гбайт = 1024 мбайт = 230 байт ? 1 000 000 000 байт

 

прием-передача информации могут происходить с разной скоростью. количество информации, передаваемое за единицу времени, есть скорость передачи информации или скорость информационного потока.

очевидно, эта скорость выражается в таких единицах, как бит в секунду (бит/с), байт в секунду (байт/с), килобайт в секунду (кбайт/с) и т.д.

 

Кодирование информации. Двоичное кодирование текстовой и числовой информации. Информационный объем текста.

При передаче информации происходит кодирование информации, и мы должны договориться о том, как понимать те или иные обозначения.

Человек выражает свои мысли словами. Они являются алфавитным представлением информации. На уроках физики при рассмотрении какого-либо явления мы используем формулы. В этом случае говорят о языке алгебры. Формула - это математический код. Существует язык глухонемых, где символы - мимика и жесты; язык музыки, где символы - ноты и т.д.
Основу любого языка составляет алфавит - конечный набор различных символов, из кото-рых складывается сообщение.
Одна и та же запись может нести разную смысловую нагрузку. Например, набор цифр 251299 может обозначать: массу объекта; длину объекта; расстояние между объектами; номер телефона; дату 25 декабря 1999 года. Эти примеры говорят, что для представления информации могут использоваться разные коды, и поэтому надо знать законы записи этих кодов, т.е. уметь кодировать.
Код - набор условных обозначений для представления информации. Кодирование - процесс представления информации в виде кода. Кодирование сводится к использованию совокупности символов по строго определенным правилам. При переходе улицы мы встречаемся с кодированием информации в виде сигналов светофора. Водитель передает сигнал с помощью гудка или миганием фар. Кодировать инфор-мацию можно устно, письменно, жестами или сигналами любой другой природы. По мере разви-тия техники появились разные способы кодирования информации. Во второй половине XIX века американский изобретатель Морзе изобрел удивительный код, который служит человечеству до сих пор.

В качестве источников информации может выступать человек, техническое устройство, предметы, объекты живой и неживой природы. Получателей сообщения может быть несколько или один.
В процессе обмена информацией мы совершаем две операции: кодирование и декодирование. При кодировании происходит переход от исходной формы представления информации в форму, удобную для хранения, передачи или обработки, а при декодировании - в обратном направлении.

Кодирование информации в двоичном коде

Существуют разные способы кодирования и декодирования информации в компьютере. Это зависит от вида информации: текст, число, графическое изображение или звук. Для числа также важно, как оно будет использовано: в тексте, или в вычислениях, или в процессе ввода-вывода. Вся информация кодируется в двоичной системе счисления: с помощью цифр 0 и 1. Эти два символа называют двоичными цифрами или битами. Такой способ кодирования технически просто организовать: 1 - есть электрический сигнал, 0 - нет сигнала. Недостаток двоичного кодирования - длинные коды. Но в технике легче иметь дело с большим числом простых однотип-ных элементов, чем с небольшим числом сложных.



Последнее изменение этой страницы: 2016-04-18; Нарушение авторского права страницы; Мы поможем в написании вашей работы!

infopedia.su Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав. Обратная связь - 3.238.186.43 (0.004 с.)