Заглавная страница Избранные статьи Случайная статья Познавательные статьи Новые добавления Обратная связь FAQ Написать работу КАТЕГОРИИ: АрхеологияБиология Генетика География Информатика История Логика Маркетинг Математика Менеджмент Механика Педагогика Религия Социология Технологии Физика Философия Финансы Химия Экология ТОП 10 на сайте Приготовление дезинфицирующих растворов различной концентрацииТехника нижней прямой подачи мяча. Франко-прусская война (причины и последствия) Организация работы процедурного кабинета Смысловое и механическое запоминание, их место и роль в усвоении знаний Коммуникативные барьеры и пути их преодоления Обработка изделий медицинского назначения многократного применения Образцы текста публицистического стиля Четыре типа изменения баланса Задачи с ответами для Всероссийской олимпиады по праву Мы поможем в написании ваших работ! ЗНАЕТЕ ЛИ ВЫ?
Влияние общества на человека
Приготовление дезинфицирующих растворов различной концентрации Практические работы по географии для 6 класса Организация работы процедурного кабинета Изменения в неживой природе осенью Уборка процедурного кабинета Сольфеджио. Все правила по сольфеджио Балочные системы. Определение реакций опор и моментов защемления |
Понятие о количестве информацииСодержание книги
Похожие статьи вашей тематики
Поиск на нашем сайте
Возможно ли объективно измерить количество информации? Важнейшим результатом теории информации является вывод:
Понятие "количество информации", основано на том, что информацию, содержащуюся в сообщении, можно трактовать в смысле её новизны или уменьшения неопределённости наших знаний об объекте. Так, американский инженер Р. Хартли (1928 г.) процесс получения информации рассматривает как выбор одного сообщения из конечного наперёд заданного множества из N равновероятных сообщений, а количество информации I, содержащееся в выбранном сообщении, определяет как двоичный логарифм N.
Пусть нужно угадать одно число из набора чисел от единицы до ста. По формуле Хартли можно вычислить, какое количество информации для этого требуется: I = log2100 = 6,644. То есть сообщение о верно угаданном числе содержит количество информации, приблизительно равное 6,644 единиц информации. Для неравновероятных сообщений американский учёный Клод Шеннон предложил в 1948 г. другую формулу определения количества информации, учитывающую возможную неодинаковую вероятность сообщений в наборе.
Легко заметить, что если вероятности p1,..., pN равны, то есть каждая из них равна 1/N, то формула Шеннона превращается в формулу Хартли. В качестве единицы информации условились принять один бит (англ. bit — двоичная цифра).
Бит —самая мелкая единица измерения. На практике чаще применяется более крупная единица — байт, равная восьми битам. Именно восемь битов требуется для того, чтобы закодировать любой из 256 символов алфавита клавиатуры компьютера (256=28). Широко используются также ещё более крупные производные единицы информации: · 1 Килобайт (Кбайт) = 1024 байт = 210 байт, · 1 Мегабайт (Мбайт) = 1024 Кбайт = 220 байт, · 1 Гигабайт (Гбайт) = 1024 Мбайт = 230 байт. В последнее время в связи с увеличением объёмов обрабатываемой информации входят в употребление такие производные единицы, как: · 1 Терабайт (Тбайт) = 1024 Гбайт = 240 байт, · 1 Петабайт (Пбайт) = 1024 Тбайт = 250 байт. За единицу информации можно было бы выбрать количество информации, необходимое для различения, например, десяти равновероятных сообщений. Тогда это будет не двоичная (бит), а десятичная единица информации (дит). Свойства информации Свойства информации следующие:
Прагматический аспект является определяющим для рассмотрения свойств информации. Так основное свойство (т.н. показатель качества) информации – её ценность определяется важностью задач, которые может решить информационный субъект (человек) с её помощью. Ценность информации зависит от того, насколько она важна для решения той или иной задачи, а также от того, насколько она найдёт применение в дальнейшем. Полезность информации определяется степенью полезности её использования для решения задач, стоящих перед информационным субъектом. Полезность информации зависит от таких её свойств, как полнота, актуальность и достоверность. Достоверность информации определяется степенью отражения в информации свойств информационного объекта. Информация достоверна, если она отражает истинное положение дел. Недостоверная информация может привести к неправильному пониманию или принятию неправильных решений. Достоверная информация со временем может стать недостоверной, так как она обладает свойством устаревать, то есть перестаёт отражать истинное положение дел. Полнота информации определяется тем, насколько полно отражены в информации свойства информационного объекта необходимые для решения поставленной перед субъектом задачи. Информация полна, если её достаточно для понимания и принятия решений. Как неполная, так и избыточная информация сдерживает принятие решений или может повлечь ошибки. Точность информации определяется степенью ее близости к реальному состоянию объекта, процесса, явления и т.п. Актуальность информации определяется её способностью отвечать задачам, решаемым в текущий момент. Только своевременно полученная информация может принести ожидаемую пользу. Нежелательны как преждевременно полученная информация (когда она не может быть усвоена), так и её задержка. Понятность информации определяется возможностью уяснить содержание полученных данных и составить представление об информационном объекте. Это семантический аспект информации. Информация становится понятной, если она выражена языком, на котором говорят те, кому предназначена эта информация. Если ценная и своевременная информация выражена непонятным образом, она может стать бесполезной. Возможность получения информации субъектом определяет её доступность. Доступность информации характеризуется возможностью получения доступа к источнику информации. Информация должна преподноситься в доступной форме (по уровню её восприятия). Поэтому одни и те же вопросы по разному излагаются в школьных учебниках и научных изданиях. Информацию по одному и тому же вопросу можно изложить кратко (сжато, без несущественных деталей) или пространно (подробно, многословно). Понятие об информационных процессах Информацию можно:
Все эти процессы, связанные с определенными операциями над информацией, называются информационными процессами. Обработка информации
Обработка является одной из основных операций, выполняемых над информацией, и главным средством увеличения объёма и разнообразия информации. Средства обработки информации — это всевозможные устройства и системы, созданные человечеством, и в первую очередь, компьютер — универсальная машина для обработки информации. Компьютеры обрабатывают информацию путем выполнения определенных алгоритмов.
Информационные ресурсы и информационные технологии
Это книги, статьи, патенты, диссертации, научно-исследовательская и опытно-конструкторская документация, технические переводы и т.п. Информационные ресурсы (в отличие от всех других видов ресурсов — трудовых, энергетических, минеральных и т.д.) тем быстрее растут, чем больше их расходуют.
Человечество занималось обработкой информации тысячи лет. В настоящее время термин "информационная технология" употребляется в связи с использованием компьютеров для обработки информации. Информационные технологии охватывают всю вычислительную технику и технику связи, в том числе — бытовую электронику, телевидение и радиовещание. Они находят применение в промышленности, торговле, управлении, банковской системе, образовании, здравоохранении, медицине и науке, транспорте и связи, сельском хозяйстве, системе социального обеспечения.
|
||||||||||||||||
Последнее изменение этой страницы: 2016-08-01; просмотров: 516; Нарушение авторского права страницы; Мы поможем в написании вашей работы! infopedia.su Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав. Обратная связь - 18.225.54.147 (0.01 с.) |