Понятие информации. Носители информации. Сигналы 


Мы поможем в написании ваших работ!



ЗНАЕТЕ ЛИ ВЫ?

Понятие информации. Носители информации. Сигналы



Термин “информация” имеет много определений. В широком смысле информация – отражение реального мира. Существует определение тер­мина в узком смысле: информация – любые сведения, являющиеся объек­том хранения, передачи и преобразования. Оба определения важны для по­нимания процессов функционирования вычислительной машины.

Все, что нас окружает и с чем мы сталкиваемся ежедневно, относится либо к физическим телам, либо к физическим полям. Из курса физики мы знаем, что состояния абсолютного покоя не существует и физические объекты находятся в состоянии непрерывного движении и изменения, которое сопровождается обменом энергией и ее переходом из одной формы в другую.

Все виды энергообмена сопровождаются появлением сигналов, то есть все сигналы имеют в своей основе материальную энергетическую природу. При взаимодействии сигналов с физическими телами в последних возникают определенные изменения свойств – это явление называется регистрацией сигналов. Такие изменения можно наблюдать, измерять или фиксировать иными способами – при этом возникают и регистрируются новые сигналы, то есть образуются данные. При этом физический метод регистрации может быть любым: механическое перемещение физических тел, изменение их формы или пара­метров качества поверхности, изменение электрических, магнитных, оптических характеристик, химического состава и (или) характера химических связей, изменение состояния электронной системы и многое другое. В соответствии с методом регистра­ции данные могут храниться и транспортироваться на носителях различных видов.

Самым распространенным носителем данных, хотя и не самым экономичным, по-видимому, является бумага. На бумаге данные регистрируются путем изменения опти­ческих характеристик ее поверхности. Изменение оптических свойств (изменение коэффициента отражения поверхности в определенном диапазоне длин волн) исполь­зуется также в устройствах, осуществляющих запись лазерным лучом на пластмассо­вых носителях с отражающим покрытием (CD-ROM). В качестве носителей, исполь­зующих изменение магнитных свойств, можно назвать магнитные ленты и диски. Регистрация данных путем изменения химического состава поверхностных веществ носителя широко используется в фотографии. На биохимическом уровне происхо­дит накопление и передача данных в живой природе.

Носители данных интересуют нас не сами по себе, а постольку, поскольку свойства информации весьма тесно связаны со свойствами ее носителей. Любой носитель можно характеризовать параметром разрешающей способности (количеством данных, записанных в принятой для носителя единице измерения) и динамическим диапа­зоном (логарифмическим отношением интенсивности амплитуд максимального и минимального регистрируемого сигналов). От этих свойств носителя нередко зави­сят такие свойства информации, как полнота, доступность и достоверность. Так, например, мы можем рассчитывать на то, что в базе данных, размещаемой на компакт-диске, проще обеспечить полноту информации, чем в аналогичной по назначению базе данных, размещенной на гибком магнитном диске, поскольку в первом случае плотность записи данных на единице длины дорожки намного выше. Для обычного потребителя доступность информации в книге заметно выше, чем той же инфор­мации на компакт-диске, поскольку не все потребители обладают необходимым оборудованием. И, наконец, известно, что визуальный эффект от просмотра слайда в проекторе намного больше, чем от просмотра аналогичной иллюстрации, напеча­танной на бумаге, поскольку диапазон яркостных сигналов в проходящем свете на два-три порядка больше, чем в отраженном.

Задача преобразования данных с целью смены носителя относится к одной из важней­ших задач информатики. В структуре стоимости вычислительных систем устройства для ввода и вывода данных, работающие с носителями информации, составляют до половины стоимости аппаратных средств.

Измерение информации. Энтропия. Количество информации

Информационные меры, как правило, рассматриваются в трех аспек­тах: структурном, статистическом и семантическом.

В структурном аспекте рассматривается строение массивов информа­ции и их измерение простым подсчетом информационных элементов или комбинаторным методом. Структурный подход применяется для оценки возможностей информационных систем вне зависимости от условий их применения.

При статистическом подходе используется понятие энтропии как ме­ры неопределенности, учитывающей вероятность появления и информа­тивность того или иного сообщения. Статистический подход учитывает конкретные условия применения информационных систем.

Семантический подход позволяет выделить полезность или ценность информационного сообщения.

 

Структурная мера информации

Информация всегда представляется в виде сообщения. Элементарная единица сообщений – символ. Символы, собранные в группы, – слова. Сообщение, оформленное в виде слов или отдельных символов, всегда пе­редается в материально-энергетической форме (электрический, световой, звуковой сигналы и т. д.).

Различают информацию непрерывную и дискретную.

Рис. 2.1. Способы представления информации

 

Функция x(t), изображенная на рис. 2.1, а, может быть представлена в непрерывном (рис. 2.1, б) и дискретном (рис. 2.1, в) видах. В непрерывном виде эта функция может принимать любые вещественные значения в дан­ном диапазоне изменения аргумента t, т. е. множество значений непрерыв­ной функции бесконечно. В дискретном виде функция x(t) может прини­мать вещественные значения только при определенных значениях аргумента. Какой бы малый интервал дискретности (т. е. расстояние между соседними значениями аргумента) ни выбирался, множество значений дис­кретной функции для заданного диапазона изменений аргумента (если он не бесконечный) будет конечно (ограничено).

При использовании структурных мер информации учитывается толь­ко дискретное строение сообщения, количество содержащихся в нем ин­формационных элементов, связей между ними. При структурном подходе различаются геометрическая, комбинаторная и аддитивная меры инфор­мации.

Геометрическая мера предполагает измерение параметра геометриче­ской модели информационного сообщения (длины, площади, объема и т. п.) в дискретных единицах. Например, геометрической моделью информации может быть линия единичной длины (рис 2.2,а – одноразрядное слово, принимающее значение 0 или 1), квадрат (рис. 2.2,б– двухразрядное сло­во) или куб (рис 2.2,в – трехразрядное слово). Максимально возможное количество информации в заданных структурах определяет информацион­ную емкость модели (системы), которая определяется как сумма дискрет­ных значений по всем измерениям (координатам).

В комбинаторной мере количе­ство информации определяется как число комбинаций элементов (симво­лов). Возможное количество инфор­мации совпадает с числом возмож­ных сочетаний, перестановок и размещений элементов. Комбиниро­вание символов в словах, состоящих только из 0 и 1, меняет значения слов. Рассмотрим две пары слов 100110 и 001101, 011101 и 111010. В них проведена перестановка крайних разрядов (изменено местоположение знакового разряда в числе – перене­сен слева направо).

Аддитивная мера (мера Хартли), в соответствии с которой количество информации измеряется в двоичных единицах (битах), наиболее рас­пространена. Вводятся понятия глубины q и длины n числа.

Глубина числа q – количество символов (элементов), принятых для представления информации. В каждый момент времени реализуется только один какой-либо символ. Глубина числа соответствует основанию системы счисления.

Длина числа n – количество позиций, необходимых и достаточных для представления чисел заданной величины. Длина числа соответствует разрядности системы счисления.

 

 
Рис. 2.2. Геометрическая модель информации

При заданных глубине и длине числа коли­чество чисел, которое можно представить, N = qn. Величина N неудобна для оценки информационной емкости. Хартли ввел аддитивную двоичную логарифмическую меру, по­зволяющую вычислять количество информации в двоичных единицах – битах:

I = log2N = n log2 q (2.1)

При n = 1, q = 2 I = log2 2 = 1 бит. Это и есть единица информации по Хартли.

Следовательно, 1 бит информации соответствует одному элементарно­му событию, которое может произойти или не произойти. Такая мера коли­чества информации удобна тем, что она обеспечивает возможность опери­ровать мерой как числом. Количество информации при этом эквивалентно количеству двоичных символов 0 или 1. При наличии нескольких источников информации общее количество информации:

(2.2)

где I(qk) – количество информации от источника k.

Логарифмическая мера информации позволяет измерять количество информации и используется на практике.



Поделиться:


Последнее изменение этой страницы: 2016-04-20; просмотров: 224; Нарушение авторского права страницы; Мы поможем в написании вашей работы!

infopedia.su Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав. Обратная связь - 3.142.124.252 (0.009 с.)