Информация. Информационные технологии 


Мы поможем в написании ваших работ!



ЗНАЕТЕ ЛИ ВЫ?

Информация. Информационные технологии



Понятие информации

«Информация» наряду с такими понятиями, как «вещество», «энергия», «пространство» и «время», составляет основу современной научной картины мира. В этот термин вкладывается различный смысл в технике, науке и быту.

Под информацией в технике понимают сообщения, передаваемые в форме знаков или сигналов, в бытовом аспекте – сведения об окружающем мире и протекающих в нем процессах, воспринимаемые человеком или специальными устройствами.

Термин «информация» происходит от латинского слова information, что означает «сведения, разьяснение, осведомленность, изложение». Это понятие вошло в употребление в середине ххв. По определению К. Шеннона, информация – это снятая неопределенность, т.е. это только те сведения, которые полностью снимают или уменьшают существующую неопределенность.

В кибернетике, по определению Н. Винера, под информацией понимают ту часть знаний, которая используется для ориентирования, активного действия, управления, т. е. в целях сохранения, совершенствования, развития системы. Семантическая теория трактует информацию как сведения, обладающие новизной.

В информатике термин «информация» можно определить как сведения об обьектах и явлениях окружающей среды, их параметрах, свойствах и состоянии, которые воспринимают информационные системы в процессе жизнедеятельности и работы.

Применительно к компьютерной обработке данных под информацией понимают некоторую последовательность символических обозначений (букв, цифр, закодированных графических образов и звуков), несущую смысловую нагрузку и представленную в «понятном» компьютеру виде.

Информация - это совокупность сведений (данных), которая воспринимается из окружающей среды (входная информация), выдается в окружающую среду (исходная информация) или сохраняется внутри определенной системы.

Информация существует в виде документов, чертежей, рисунков, текстов, звуковых и световых сигналов, электрических и нервных импульсов и т.п..

Важнейшие свойства информации:

· объективность и субъективность;

· полнота;

· достоверность;

· адекватность;

· доступность;

· актуальность.

Данные являются составной частью информации, представляющие собой зарегистрированные сигналы.

Во время информационного процесса данные преобразовываются из одного вида в другого с помощью методов. Обработка данных включает в себя множество разных операций. Основными операциями есть:

· сбор данных - накопление информации с целью обеспечения достаточной полноты для принятия решения;

· формализация данных - приведение данных, которые поступают из разных источников к единой форме;

· фильтрация данных - устранение лишних данных, которые не нужны для принятия решений;

· сортировка данных - приведение в порядок данных за заданным признаком с целью удобства использования;

· архивация данных - сохранение данных в удобной и доступной форме;

· защита данных - комплекс мер, направленных на предотвращение потерь, воспроизведения и модификации данных;

· транспортирование данных - прием и передача данных между отдаленными пользователями информационного процесса. Источник данных принят называть сервером, а потребителя - клиентом;

· преобразование данных - преобразование данных с одной формы в другую, или с одной структуры в другую, или изменение типа носителя.

 

Методы получения информации

Информацию мы получаем различными способами: при разговоре между людьми, через средства массовой информации и различные средства коммуникации – радио, телефон, телевидение, компьютер. Откуда появляется новая информация? Ежедневный человеческий опыт является важнейшим методом получения информации.

В прошлом этот метод был основным и единственным. Множество замечательных открытий было поучено опытным путем, в процессе накопления опыта и вывода определенных умозаключений.

Как альтернатива накоплению опыта существовал и существует метод проб и ошибок т. е. эвристический метод. В современной науке эвристический метод так же имеет место, но он недостаточно эффективен.

Научный подход характеризуется тем, что при его применении производится не беспорядочный перебор всех возможных вариантов, а целенаправленный поиск. В результате применения целенаправленного поиска люди создали новые материалы и процессы, неизвестные в природе.

 

 

Свойства информации

Любая информация должна обладать рядом свойств: достоверностью, полнотой, актуальностью, ясностью и ценностью

Достоверность – истинное обьективное отражение действительности. Каждый человек воспринимает окружающую действительность субьективно, имея сой собственный, отличный от других свой взгляд и мнение. Смысл достоверности заключается в определении, насколько данная информация соответствует истинному положению дел. Недостоверная информация повлечет за собой неправильное понимание ситуациии принятие неверных решений.

Полнота – достаточной количество данных для понимания ситуации и принятия решений.

Актуальность – соответствие информации данной ситуации.

Ясность – выражение информации в таком виде, который был бы понятен ее получателю.

Ценность – нужна ли информация для решения данной проблемы. Т.е. одна и та же информация может быть очень важной в одной ситуации и быть абсолютно бесполезной в другой ситуации.

 

Измерение информации

Сколько информации содержится, к примеру, в тексте романа «Война и мир», во фресках Рафаэля или в генетическом коде человека? Возможно ли измерить количество информации? В научном понятие «информация» связывается с вероятностью осуществления того или иного события.

Вероятность это числовая характеристика степени возможности наступления события, изменяемая от 0 до1.Вероятность достоверного события (которое обязательно должно произойти) равна 1, невозможного события (не произойдет никогда) – 0. Вероятность случайного события (которое может произойти, а может не произойти) лежит в интервале (0,1). Американский ученый К. Шеннон предложил в 1948 г. формулу определения количества информации, учитывающую возможную неодинаковую вероятность сообщений в наборе.

Формула Шеннона:

I = Log n

Анализ формулы показывает, что чем выше вероятность события, тем меньшее количество информации возникает после его осуществления, и наоборот.

Рассмотрим, как можно подсчитать количество информации в сообщении, используя содержательный подход.
Пусть в некотором сообщении содержатся сведения о том, что произошло одно из N равновероятных событий. Тогда количество информации х, заключенное в этом сообщении, и число событий N связаны формулой: 2x = N. Решение такого уравнения с неизвестной х имеет вид: x=log2N. То есть именно такое количество информации необходимо для устранения неопределенности из N равнозначных вариантов. Эта формула носит название формулы Хартли. Получена она в 1928 г. американским инженером Р. Хартли.

Если вероятность равна 1, количество информации равно 0. Если вероятность свершения или несвершениякакого- либо событияодинакова, т. е. равна ½, то количество информации, которое несет с собой это событие, равно 1.

Это – единица измерения информации. Она получила наименование бит.

Поэтому бит можно также определить как количество информации, которое содержит один разряд двоичного числа. Бит в теории информации – количество информации, необходимое для различения двух равновероятных сообщений. Количество информации, равное 8 битам, называется байтом.

Широко используются также еще более крупные производные единицы измерения:

· 1 Килобайт = 1 024 байт;

· 1 Мегабайт = 1 024 Кбайт;

· 1 Гигабайт = 1 024Мбайт;

· 1 Терабайт = 1 024 Гбайт;

· 1 Петабайт = 1 024 Тбайт.

 



Поделиться:


Последнее изменение этой страницы: 2017-01-19; просмотров: 130; Нарушение авторского права страницы; Мы поможем в написании вашей работы!

infopedia.su Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав. Обратная связь - 3.20.238.187 (0.009 с.)