ТОП 10:

Содержащейся в экономической системе.



Для измерения информации вводятся два параметра: количество информации I и объем дан­ных Vд.

Эти параметры имеют разные выражения и интерпретацию в зависимости от рассмат­риваемой формы адекватности. Каждой форме адекватности соответствует своя мера коли­чества информации и объема данных (см.рис.).

      Меры информации      
               
               
Синтаксическая мера   Семантическая мера   Прагматическая
                   
    Объем данных Vд            
 
                   
    Количесиво информации Ib(a) = H(b) - H(a) H(a) - энтропия     Количество информации Ic = C Vд где С - коэффициент содержательности    
   

Синтаксическая мера информации – это мера количества информации оперирует с обезличенной информацией, не выражающей смыслового отношения к объекту.

Объем данных Уя в сообщении измеряется количеством символов (разрядов) в этом сообщении. В различных системах счисления один разряд имеет различный вес и соот­ветственно меняется единица измерения данных:

ü в двоичной системе счисления единица измерения — бит (bit binary digit — двоич­ный разряд);

ü в десятичной системе счисления единица измерения — дит (десятичный разряд).

Пример. Сообщение в двоичной системе в виде восьмиразрядного двоичного кода 10111011 имеет объем данных УД = 8 бит.

Количество информации I на синтаксическом уровне невозможно опреде­лить без рассмотрения понятия неопределенности состояния системы (энтропии системы). Действительно, получение информации о какой-либо системе всегда связано с изменением степени неосведомленности получателя о состоянии этой системы. Рассмотрим это понятие.

Пусть до получения информации потребитель имеет некоторые предварительные (ап­риорные) сведения о системе a. Мерой его неосведомленности о системе является функция Н(a), которая в то же время служит и мерой неопределенности состояния системы.

После получения некоторого сообщения b получатель приобрел некоторую дополни­тельную информацию Ib(a), уменьшившую его априорную неосведомленность так, что апостериорная (после получения сообщения b) неопределенность состояния системы стала Hb(a).

Тогда количество информации Ib(a) о системе, полученной в сообщении b, опреде­лится как Ib(a) = H(a) - Hb(a), т.е. количество информации измеряется изменением (уменьшением) неопределенности со­стояния системы.

Если конечная неопределенность Hb(a) обратится в нуль, то первоначальное непол­ное знание заменится полным знанием и количество информации Ib(a) = H(a) . Иными сло­вами, энтропия системы H(a) может рассматриваться как мера недостающей информации.

Энтропия системы H(a), имеющая N возможных состояний, согласно формуле Шенно­на, равна:

где Рi — вероятность того, что система находится в i-м состоянии.

Для случая, когда все состояния системы равновероятны, т.е. их вероятности равны Pi = 1 / N, ее энтропия определяется соотношением

 

Часто информация кодируется числовыми кодами в той или иной системе счисления, особенно это актуально при представлении информации в компьютере. Естественно, что одно и то же количество разрядов в разных системах счисления может передать разное число состояний отображаемого объекта, что можно представить в виде соотношения N=mn, где N — число всевозможных отображаемых состояний; т — основание системы счисления (разнообразие символов, применяемых в алфавите); п — число разрядов (символов) в сообщении.

Наиболее часто используются двоичные и десятичные логарифмы. Единицами измере­ния в этих случаях будут соответственно бит и дит.

Коэффициент (степень) информативности (лаконичность) сообще­ния определяется отношением количества информации к объему данных, т.е. Y = I / Vд, причем 0<Y<1.

С увеличением Y уменьшаются объемы работы по преобразованию информации (дан­ных) в системе. Поэтому стремятся к повышению информативности, для чего разрабатыва­ются специальные методы оптимального кодирования информации.

Семантическая мера информации.Для измерения смыслового содержания информации, т.е. ее количества на семантическом уровне, наибольшее признание получила тезаурусная мера, которая связывает семантичес­кие свойства информации со способностью пользователя принимать поступившее сообще­ние. Для этого используется понятие тезаурус пользователя. Тезаурус — это совокупность сведений, которыми располагает пользова­тель или система.

В зависимости от соотношений между смысловым содержанием информации S и теза­урусом пользователя Sp изменяется количество семантической информации Ic, восприни­маемой пользователем и включаемой им в дальнейшем в свой тезаурус. Характер такой зависимости показан на рисунке.

Рассмотрим два предельных случая, когда количество се­мантической информации 1С равно 0:

ü при Sp « 0 пользователь не воспринимает, не понимает поступающую информацию;

ü при Sp-*°° пользователь все знает, и поступающая информация ему не нужна.







Последнее изменение этой страницы: 2016-12-16; Нарушение авторского права страницы

infopedia.su Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав. Обратная связь - 3.235.66.217 (0.005 с.)