Описательные информации и подсчет их числа в информационной цепи 
";


Мы поможем в написании ваших работ!



ЗНАЕТЕ ЛИ ВЫ?

Описательные информации и подсчет их числа в информационной цепи



Описательная информация – это такая информация, которая относится к наименьшему возможному числу информации, необходимых для описания некоторого определённого сообщение в информационной цепи.

Исходная (реперная) информация – это описательная информация, необходимая для определения первого сообщения в информационной цепи.

Исходное сообщение – это сообщение, которое следует преобразовать с помощью исходной информации для получения первого сообщения в информационной цепи.

Для описания последнего сообщения в информационной цепи необходимо знать информацию, которая преобразует предпоследнее сообщение в последнее, а для описания предпоследнего сообщения, в свою очередь, необходима информация, которая преобразует предыдущее сообщение, и т.д. – любое последующее сообщение описывается на основе предыдущего. Для определения же самого первого сообщения информационной цепи необходима исходная информация, которой должно быть подвергнуто некоторое исходное сообщение, не принадлежащее к данной информационной цепи.

Так как исходное сообщение не играет роли в процессе управления, то его можно выбрать произвольным образом, но в соответствии с ним должна быть выбрана исходная информация. Например, для определения значений температуры в качестве исходной температуры берётся температура таяния льда, температура абсолютного нуля. В качестве исходной информации можно взять операционную информацию вида t 0 + Δ t 01 = t 1, где Δ t 01 = (t 1- t 0) параметр операции. За исходную высоту местности принимается уровень моря; за исходный электрический потенциал берётся потенциал земли и т.п.

Наиболее удобно выбирать исходное сообщение, совпадающим с первым сообщением информационной цепи, так как исходная информация при этой будет тривиальной. К такому случаю относятся формулировки: «дана точка на плоскости, относительно которой…», «дано начальное состояние системы, относительного которого…».

Выясним от чего зависит число описательных информаций [2].

Теорема 2.1. Число информации D, описывающих одно сообщение в информационной цепи, состоящей из n различных сообщений, равно числу этих сообщений.

Доказательство этой теоремы основано на том обстоятельстве, что для полного описания любого j -го сообщения информационной цепи, состоящей из n сообщений, необходимо связать это сообщение со всеми (n - 1) остальными сообщениями этой цепи с помощью такого же числа описательных информации и ещё одна – исходная информация – требуется для связи данного сообщения с исходным сообщением. Таким образом, D j = n. Но те же утверждения справедливы для любого сообщения информационной цепи, поэтому

D 1 = D 2 =... = D j =... = D n = D = n. (2.15)

Из теоремы 2.1 следует, что при полном описании одного из сообщений информационной цепи одновременно оказываются описаны и все остальные сообщения данной цепи. Так бывает, например, когда имеется система из n уравнений с n переменными, (n - 1) из которых заданы, и требуется определить оставшуюся.

Здесь важно уяснить, что описать сообщение – это значит указать его связи со всеми другими сообщениями данной информационной цепи, а также с исходным сообщением с помощью преобразований (описательных информации). Так невозможно описать, например, красный цвет не соотнося его с другими цветами (желтым, зелёным, синим и т.д.) спектра видимого излучения.

Теорема 2.2. Для описания одного сообщения информационной цепи, содержащей основную информацию и состоящей из произвольного числа n сообщений достаточно двух описательных информации, т.е.

D 1 = D 2 =... = D j =... = D n = D = 2 (2.16)

Данная теорема доказывается тем, что для определения любого сообщения из n сообщений требуется (n - 1) – кратное применение одной и той же основной информации J и применения одной исходной информации J 01 (см. разд. 1.5).

Для дальнейших рассуждений необходимо определить следующие понятия.

Полная описательная информация – это информация, которая представлена наименьшим множеством описательных информации, необходимых для описания определённого сообщения в информационной цепи, т.е. полная информация содержится в наименьшем множестве преобразований, связывающих данное сообщение с исходным и всеми другими сообщениями информационной цепи.

Описательная информация множества сообщений информационной цепи – это информация, которая представлена наименьшим множеством полных описательных информации, необходимых для описания каждого из сообщений информационной цепи.

Редкость сообщения или описательной информации – это величина обратная частоте (в пределе – вероятности) встречаемости сообщения данного класса или описательной информации данного типа среди множества всех рассматриваемых сообщений или информации. Следовательно, чем меньше вероятность появления некоторого объекта, тем реже он встречается и наоборот.

Редкость будем обозначать в виде или , где n j – число одинаковых сообщений, составляющих j -й класс, n – общее число сообщений; и P j – соответственно частота (относительное число) и вероятность одинаковых сообщений j -го класса.

Теорема 2.3. Если в информационной цепи, состоящей из n сообщений, имеется m классов, состоящих соответственно из n а,, n b, …, n m одинаковых сообщений, то среднее число описательных информации можно определить следующим выражением

Докажем теорему. Считается данным, что в информационной цепи имеется:

n a сообщений a 1 = a 2 = a 3 = … = a,

n b сообщений b 1 = b 2 = b 3 = … = b,

…………………………………

n m сообщений m 1 = m 2 = m 3 = … = m,

причём n a + n b + …+ n m = n.

В соответствии с теоремой 2.1 число информаций, описывающих сообщение a 1, равно D a1 = n. Точно также для числа информаций, описывающих остальные сообщения этого же класса, имеем D a2 = n, D a3 = n и т.д. Вследствие одинаковости сообщений а 1 = а 2 = а 3 = … = аполные информации, описывающие каждое из этих сообщений, также одинаковы, поэтому для полной информации, описывающей одно из этих сообщений, информации, описывающие остальные сообщения этого класса, являются избыточными и должны быть исключены. При этом среднее число описательных информации, приходящееся на каждое из этих сообщений будет меньше общего числа сообщений данной информационной цепи во столько раз, сколько имеется одинаковых сообщений в данном классе, т.е. D а = n/n a. Так же определяются средние числа описательных информации, приходящихся на каждый из остальных классов, т.е.

, , …, . (2.17)

Среднее число описательных информации одного сообщения информационной цепи можно определить как среднее геометрическое средних чисел информации, описывающих сообщения для всех классов

 

(2.18)

или с учетом (2.17), получим

, (2.19)

или то же в компактном виде

, (2.20)

где j – номер класса, m – число классов.

Преобразуем уравнение (2.20) к виду

. (2.21)

Обозначив

(3.22)

где n q – среднее (геометрическое) число сообщений одного класса, и подставляя эту величину в знаменатель выражения (2.21), получим

. (2.23)

 

В частном случае, когда все сообщения информационной цепи различны, т.е. когда каждый класс представлен всего одним сообщением и

m = n, из (2. 20) имеем D = n, что совпадает с утверждением теоремы 2.1.

Заметим, что по определению величина D а = n/n a оценивает редкость встречаемости одинаковых сообщений класса «а» и среди всего множества n сообщений, составляющих информационную цепь. Если рассмотреть любую из полных описательных информации сообщений этого класса, то станет видно, что эта же величина, является редкостью тривиальных информации среди всего множества n информации, описывающих отдельное сообщение класса «а», а также, что она представляет, кроме того, редкость одинаковых полных информации, описывающих сообщения класса «а», среди множества n полных информации, описывающих все сообщения информационной цепи. Таким образом, величина D j = n/n j представляет одновременно редкости встречаемости следующих объектов: одинаковых сообщений j -го класса, тривиальных описательных информации, входящих в состав полной описательной информации отдельного сообщения j -го класса, одинаковых полных описательных информации сообщений j -го класса, образующих вместе с другими описательную информацию множества всех сообщений информационной цепи.

С учётом данных замечаний среднее число описательных информации D, определённое в виде (2.18 – 2.21) и (2.23), позволяет также оценить средниередкости одинаковых сообщений или тривиальных описательных информации, или одинаковых полных информации, описывающих сообщения одного класса.

 



Поделиться:


Последнее изменение этой страницы: 2016-04-19; просмотров: 300; Нарушение авторского права страницы; Мы поможем в написании вашей работы!

infopedia.su Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав. Обратная связь - 3.145.58.169 (0.005 с.)