Подходы к понятию и измерению информации 


Мы поможем в написании ваших работ!



ЗНАЕТЕ ЛИ ВЫ?

Подходы к понятию и измерению информации



Вплоть до середины XX в. термин «информация» и в обиходе, и в научной литературе обычно употреблялся в смысле сообщения, осведомления кого-либо о чем-либо или, что близко к этому, в смысле сведений, передаваемых одними людьми другим. С развитием технических средств передачи, восприятия и особенно анализа различных сведений, а также с зарождением информатики и кибернетики — наук, внесших весомый вклад в реализацию проблемы обмена сведениями не только между людьми, но и между человеком и машиной, — понятие информации существенно расширилось. С философской точки зрения информация обладает свойством как духовного, так и материального мира человека. С одной стороны, информация формирует материальную среду жизни человека, с другой — постоянно возникая, видоизменяясь и трансформируясь в процессе перехода от одного человека к другому, служит основным средством межличностных отношений. Таким образом, информация одновременно определяет и социокультурную жизнь человека, и его материальное бытие.

Основоположник кибернетики Н. Винер, который ввел это понятие в науку, отказавшись от его определения и считая его сродни таким общим категориям, как движение, жизнь, сознание и т.п., отмечал: «Информация есть информация, а не материя и не энергия».

Позже Винер дал следующее определение: «Информация — это обозначение содержания, полученного из внешнего мира в про-цессе нашего приспособления к нему и приспосабливания к нему наших чувств».

«Информация» в физике есть термин, качественно обобщающий понятия «сигнал» и «сообщение». Объекты материального мира обмениваются сигналами, например, выгнутая спина у кошки выражает одновременно и наступательные и оборонительные сигналы. Сообщения, представленные в виде сигналов, будут считаться информацией, которая передается от источника к получателю.

В математической теории К. Шеннона информация понимается как снятая, сокращающаяся неопределенность. Комментируя данный подход, Н. Винер особо подчеркивал, что «величина, которую мы здесь определяем как количество информации, противоположна по знаку величине, которую в аналогичных ситуациях обычно определяют как энтропию».

В 1960-е гг. появилась наука информатика. Предметом ее изучения являются данные, которые можно создавать, обрабатывать, хранить и передавать. Однако не стоит трактовать понятия «данные» и «информация» как синонимы. В толковом словаре по вычислительной технике компании Microsoft дано такое определение: «Информация — содержание, значение данных, которое видят в них люди. Обычно данные состоят из фактов, которые становятся информацией в определенном контексте и понятны людям. Компьютеры обрабатывают данные без какого-либо понимания того, что эти данные собой представляют».

В Законе об информации, информатизации и защите информации понятие «информация» определено как «сведения (сообщения, данные) независимо от формы их представления», а ГОСТ 7.0–99 «Информационно-библиотечная деятельность, библиография. Термины и определения» трактует его как «сведения, воспринимаемые человеком и (или) специальными устройствами как отражение фактов материального или духовного мира в процессе коммуникации».

Итак, вопросу, посвященному природе информации, много внимания уделялось в философии, кибернетике и других науках. Однако среди ученых до настоящего времени не выработана единая точка зрения относительно содержания и определения данного понятия. Причем диапазон существующих мнений достаточно широк. Главная причина сложившейся ситуации заключается в многогранности понятия информации. Имеется много определений, между тем каждое из них вычленяет какой-либо один аспект информации. Свойства информации. Как и всякий объект, информация обладает свойствами. Характерной отличительной особенностью информации от других объектов природы и общества является дуализм: на свойства информации влияют как свойства исходных данных, составляющих ее содержательную часть, так и свойства методов, фиксирующих эту информацию.

С точки зрения информатики наиболее важными представляются следующие общие качественные свойства: объективность, достоверность, полнота, точность, актуальность, полезность, ценность, своевременность, понятность, доступность, краткость и пр.

Объективность информации. Объективный — существующий вне и независимо от человеческого сознания. Информация — это отражение внешнего объективного мира. Информация объективна, если она не зависит от методов ее фиксации, чьего-либо мнения, суждения. Например, сообщение «На улице мороз» несет субъективную информацию, а сообщение «На улице –20°C» — объективную, но с точностью, зависящей от погрешности средства измерения.

Объективную информацию можно получить с помощью исправных датчиков, измерительных приборов. Отражаясь в сознании человека, информация может исказиться (в большей или меньшей степени) в зависимости от мнения, суждения, опыта, знаний конкретного субъекта и, таким образом, перестать быть объективной.

Достоверность информации. Информация достоверна, если она отражает истинное положение дел. Объективная информация всегда достоверна, но достоверная информация может быть как объективной, так и субъективной. Достоверная информация помогает принять правильное решение. Недостоверной информация может быть:

• из-за преднамеренного (дезинформации) или непреднамеренного искажения субъективного свойства;

• из-за искажения в результате воздействия помех («испорченный телефон») и недостаточно точных средств ее фиксации.

Полнота информации. Информацию можно назвать полной, если ее достаточно для понимания и принятия решений. Неполная информация может привести к ошибочному выводу или решению.

Точность информации определяется степенью ее близости к реальному состоянию объекта, процесса, явления и т.п.

Актуальность информации — важность для настоящего времени, злободневность, насущность. Только вовремя полученная информация может быть полезна.

Полезность (ценность) информации. Полезность может быть оценена применительно к нуждам ее конкретных потребителей и по тем задачам, которые можно решить с ее помощью.

Самая ценная информация — объективная, достоверная, полная и актуальная. При этом следует учитывать, что и необъективная, недостоверная информация (например, художественная литература) имеет большую значимость для человека. Социальная (общественная) информация обладает еще и дополнительными свойствами:

• имеет семантический (смысловой), т.е. понятийный, характер, так как именно в понятиях обобщаются наиболее существенные признаки предметов, процессов и явлений окружающего мира;

• имеет языковую природу (кроме некоторых видов эстетической информации, например изобразительного искусства).

Одно и то же содержание может быть выражено на разных естественных (разговорных) языках, записано в виде математических формул и т.д.

С течением времени количество информации растет, информация накапливается, происходят ее систематизация, оценка и обобщение. Это свойство назвали ростом и кумулированием информации. (Кумуляция — от лат. cumulatio — увеличение, скопление).

Старение информации заключается в уменьшении ее ценности с течением времени. Старит информацию не само время, а появление новой информации, которая уточняет, дополняет либо отвергает полностью или частично более раннюю. Научно-техническая информация стареет быстрее, эстетическая (произведения искусства) — медленнее.

Логичность, компактность, удобная форма представления облегчают понимание и усвоение информации.

В настоящее время информация становится реальной производительной силой, от ее количества и качества зависит результат многих производственных и непроизводственных процессов. Следовательно, проблемам использования информации как нового ресурса развития общества должно уделяться повышенное внимание, а развитие информационных технологий станет катализатором этого развития.

Процессы, связанные с поиском, обработкой, передачей и хранением информации, называются информационными процессами.

Выделяют следующие информационные процессы:

1) ввод (сбор, получение) информации;

2) обработка (преобразование) информации;

3) хранение информации (в собственной памяти или на внешних носителях);

4) передача информации — двусторонний процесс: всегда есть источник информации (отправляет информацию) и приемник (получает информацию);

5) защита информации (от потерь, несанкционированного доступа и т.д.).

Примеры информационных процессов представлены в табл. 2.1.

Таблица 2.1

Примеры информационных процессов

Измерение информации. Персональный компьютер обрабатывает информацию, представленную в двоичной (дискретной) форме. Согласно принципам фон Неймана в вычислительных машинах должна использоваться двоичная система счисления, а не десятичная. Связано такое положение с тем, что так удобнее закодировать сигнал: признаком его наличия является единица, а отсутствие — нуль.

Минимальной единицей измерения количества информации принято считать 1 бит (bit от англ. binary digit — двоичный разряд).

Энтропия, т.е. степень неопределенности наших знаний, тоже может определяться в битах. Простой пример подбрасывания монеты, у которой, как известно, имеется две стороны, уменьшает степень неопределенности выпадения одной из них ровно в 2 раза.

Следовательно, речь идет о получении 1 бита информации. Более крупными единицами информации являются:

1 байт = 8 бит (разрядов);

1 килобайт (Кбайт) = 1024 байт = 210 байт;

1 мегабайт (Мбайт) = 1024 Кбайт = 220 байт;

1 гигабайт (Гбайт) = 1024 Мбайт = 230 байт;

1 терабайт (Тбайт) = 1024 Гбайт = 240 байт.

Соотношение между единицами измерения количества информации представляют собой степени двойки:

К методам измерения количества информации относят алфавитный и вероятностный подходы. При алфавитном подходе информацию рассматривают только как последовательность знаков, абстрагируясь от ее содержания. Алфавитом называется конечное множество различных символов, например, букв, цифр. Количество символов в алфавите называется мощностью алфавита. Чем больше алфавит знаковой системы, тем большее количество информации несет каждый знак.

В 1928 г. американский инженер Р. Хартли предложил формулу вычисления количества информации:

N = 2i,

где N — количество возможных событий; i — количество информации.

 

Пример 2.1. В корзине лежат 8 шаров. Все шары разного цвета. Сколько информации содержит сообщение о том, что из корзины достали красный шар?

Решение.

Поскольку удаление любого из 8 шаров равновероятно, количество информации о цвете вынутого шара находится из уравнения

2x = 8

Отсюда следует, что x = 3 бит.

Пример 2.2. Определите информационный объем одного знака русского алфавита.

Решение.

Примем за N количество знаков в алфавите, а за i — количество информации, которое несет в себе каждый знак. Тогда для русского алфавита (32 буквы, исключая ё), получим: 32 = 25, т.е. информационный объем одного знака русского алфавита несет в себе 5 бит информации.

По-другому формула Хартли записывается следующим образом:

I = log2N, следовательно, в нашем примере, I = log232 = 5 бит.

Если количество символов алфавита равно N, а количество символов в записи сообщения равно M, то информационный объем данного сообщения вычисляется по формуле

I = M log2N

Рассмотрим еще несколько примеров.

Пример 2.3. Сообщение содержит 4096 символов. Объем сообщения при использовании равномерного кода составил 1/512 Мбайт. Чему равна мощность алфавита, с помощью которого записано данное сообщение?

Решение.

Переведем информационный объем сообщения в биты:

КОНТРОЛЬНЫЕ ВОПРОСЫ И ЗАДАНИЯ

1. Перечислите подходы к определению понятия «информация».

2. Дайте характеристику свойствам информации.

3. Какие процессы называются информационными? Приведите примеры.

4. Назовите основные единицы измерения информации. Чему равен 1 бит?

5. Дайте характеристику методам измерения количества информации.

6. Объем сообщения равен 11 Кбайт. Сообщение содержит 11 264 символа. Какова мощность алфавита?

7. Метеорологическая станция ведет наблюдение за влажностью воздуха. Результатом одного измерения является целое число от 0 до 100, которое записывается при помощи минимально возможного количества бит. Станция сделала 80 измерений. Определите информационный объем результатов наблюдений.

 



Поделиться:


Последнее изменение этой страницы: 2021-09-26; просмотров: 138; Нарушение авторского права страницы; Мы поможем в написании вашей работы!

infopedia.su Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав. Обратная связь - 3.145.115.195 (0.022 с.)