Заглавная страница Избранные статьи Случайная статья Познавательные статьи Новые добавления Обратная связь FAQ Написать работу КАТЕГОРИИ: АрхеологияБиология Генетика География Информатика История Логика Маркетинг Математика Менеджмент Механика Педагогика Религия Социология Технологии Физика Философия Финансы Химия Экология ТОП 10 на сайте Приготовление дезинфицирующих растворов различной концентрацииТехника нижней прямой подачи мяча. Франко-прусская война (причины и последствия) Организация работы процедурного кабинета Смысловое и механическое запоминание, их место и роль в усвоении знаний Коммуникативные барьеры и пути их преодоления Обработка изделий медицинского назначения многократного применения Образцы текста публицистического стиля Четыре типа изменения баланса Задачи с ответами для Всероссийской олимпиады по праву Мы поможем в написании ваших работ! ЗНАЕТЕ ЛИ ВЫ?
Влияние общества на человека
Приготовление дезинфицирующих растворов различной концентрации Практические работы по географии для 6 класса Организация работы процедурного кабинета Изменения в неживой природе осенью Уборка процедурного кабинета Сольфеджио. Все правила по сольфеджио Балочные системы. Определение реакций опор и моментов защемления |
Информация — это сведения об объектах и явлениях окружающего мира, уменьшающие степень неопределённости знаний об этих объектах или явлениях.↑ Стр 1 из 5Следующая ⇒ Содержание книги
Похожие статьи вашей тематики
Поиск на нашем сайте
Информация — это сведения об объектах и явлениях окружающего мира, уменьшающие степень неопределённости знаний об этих объектах или явлениях. Информация не существует сама по себе. Всегда имеется источник, который производит информацию, и приемник, который её воспринимает.
В роли источника или приемника может быть любой объект материального мира: человек, устройство, животное, растение. То есть информация всегда предназначена конкретному объекту. Источник информации — это объект, порождающий информацию и представляющий её в виде сообщения. Приемник информации — это объект, принимающий сообщение и способный правильно его интерпретировать.
Под словом «кодирование» понимают процесс представления информации, удобный для её хранения и/или передачи. Следовательно, запись текста на естественном языке можно рассматривать как способ кодирования речи с помощью графических элементов (букв, иероглифов). Записанный текст является кодом, заключающим в себе содержание речи, т. е. информацию. Код — система условных знаков (символов ), предназначенных для представления информации в соответствии с определенными правилами. Кодирование — переход от одной формы представления информации к другой, наиболее удобной для её хранения, передачи или обработки. Криптография — это наука о методах и принципах передачи и приема зашифрованной с помощью специальных ключей информации. Ключ — секретная информация, используемая криптографическим алгоритмом при шифровании/расшифровке сообщений. 2. Единицы измерения информации.
Для информации существуют свои единицы измерения информации. Если рассматривать сообщения информации как последовательность знаков, то их можно представлять битами, а измерять в байтах, килобайтах, мегабайтах, гигабайтах, терабайтах и петабайтах. Давайте разберемся с этим, ведь нам придется измерять объем памяти и быстродействие компьютера. Бит Единицей измерения количества информации является бит – это наименьшая (элементарная) единица. 1бит – это количество информации, содержащейся в сообщении, которое вдвое уменьшает неопределенность знаний о чем-либо.
Байт Байт – основная единица измерения количества информации. Байтом называется последовательность из 8 битов. Байт – довольно мелкая единица измерения информации. Например, 1 символ – это 1 байт.
Производные единицы измерения количества информации 1 байт=8 битов 1 килобайт (Кб)=1024 байта =210 байтов 1 мегабайт (Мб)=1024 килобайта =210 килобайтов=220 байтов 1 гигабайт (Гб)=1024 мегабайта =210 мегабайтов=230 байтов 1 терабайт (Гб)=1024 гигабайта =210 гигабайтов=240 байтов Запомните, приставка КИЛО в информатике – это не 1000, а 1024, то есть 210.
Методы измерения количества информации Итак, количество информации в 1 бит вдвое уменьшает неопределенность знаний. Связь же между количеством возможных событий N и количеством информации I определяется формулой Хартли: N=2i.
Алфавитный подход к измерению количества информации При этом подходе отвлекаются от содержания (смысла) информации и рассматривают ее как последовательность знаков определенной знаковой системы. Набор символов языка, т.е. его алфавит можно рассматривать как различные возможные события. Тогда, если считать, что появление символов в сообщении равновероятно, по формуле Хартли можно рассчитать, какое количество информации несет в себе каждый символ: I=log2N.
Задача 1. Шар находится в одной из четырех коробок. Сколько бит информации несет сообщение о том, в какой именно коробке находится шар. Имеется 4 равновероятных события (N=4). По формуле Хартли имеем: 4=2i. Так как 22=2i, то i=2. Значит, это сообщение содержит 2 бита информации.
Задача 2. Задача 3. Чему равен информационный объем одного символа английского языка? Решите самостоятельно.
Задача 4. Световое табло состоит из лампочек, каждая из которых может находиться в одном из двух состояний (“включено” или “выключено”). Какое наименьшее количество лампочек должно находиться на табло, чтобы с его помощью можно было передать 50 различных сигналов? С помощью N лампочек, каждая из которых может находиться в одном из двух состояний, можно закодировать 2N сигналов. 25< 50 <26, поэтому пяти лампочек недостаточно, а шести хватит. Значит, нужно 6 лампочек.
Задача 5. Метеостанция ведет наблюдения за влажностью воздуха. Результатом одного измерения является целое число от 0 до 100, которое записывается при помощи минимально возможного количества битов. Станция сделала 80 измерений. Определите информационный объем результатов наблюдений. В данном случае алфавитом является множество чисел от 0 до 100, всего 101 значение. Поэтому информационный объем результатов одного измерения I=log2101. Но это значение не будет целочисленным, поэтому заменим число 101 ближайшей к нему степенью двойки, большей, чем 101. это число 128=27. Принимаем для одного измерения I=log2128=7 битов. Для 80 измерений общий информационный объем равен 80*7 = 560 битов = 70 байтов.
Задача 6. Задача 7. Задача 8. Оцените информационный объем следующего предложения: Тяжело в ученье – легко в бою! Так как каждый символ кодируется одним байтом, нам только нужно подсчитать количество символов, но при этом не забываем считать знаки препинания и пробелы. Всего получаем 30 символов. А это означает, что информационный объем данного сообщения составляет 30 байтов или 30 * 8 = 240 битов.
3. Представление информации в различных системах счисления Информация — это сведения об объектах и явлениях окружающего мира, уменьшающие степень неопределённости знаний об этих объектах или явлениях. Информация не существует сама по себе. Всегда имеется источник, который производит информацию, и приемник, который её воспринимает.
В роли источника или приемника может быть любой объект материального мира: человек, устройство, животное, растение. То есть информация всегда предназначена конкретному объекту.
|
||||
Последнее изменение этой страницы: 2020-10-24; просмотров: 754; Нарушение авторского права страницы; Мы поможем в написании вашей работы! infopedia.su Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав. Обратная связь - 18.117.156.26 (0.006 с.) |