Заглавная страница Избранные статьи Случайная статья Познавательные статьи Новые добавления Обратная связь FAQ Написать работу КАТЕГОРИИ: АрхеологияБиология Генетика География Информатика История Логика Маркетинг Математика Менеджмент Механика Педагогика Религия Социология Технологии Физика Философия Финансы Химия Экология ТОП 10 на сайте Приготовление дезинфицирующих растворов различной концентрацииТехника нижней прямой подачи мяча. Франко-прусская война (причины и последствия) Организация работы процедурного кабинета Смысловое и механическое запоминание, их место и роль в усвоении знаний Коммуникативные барьеры и пути их преодоления Обработка изделий медицинского назначения многократного применения Образцы текста публицистического стиля Четыре типа изменения баланса Задачи с ответами для Всероссийской олимпиады по праву Мы поможем в написании ваших работ! ЗНАЕТЕ ЛИ ВЫ?
Влияние общества на человека
Приготовление дезинфицирующих растворов различной концентрации Практические работы по географии для 6 класса Организация работы процедурного кабинета Изменения в неживой природе осенью Уборка процедурного кабинета Сольфеджио. Все правила по сольфеджио Балочные системы. Определение реакций опор и моментов защемления |
Глава 3. Информация и управление.Содержание книги
Поиск на нашем сайте
"Наивная" точка зрения на управление и информацию. - Вывод соотношения I=- log2 P как пример применения математических методов в кибернетике. - < I>, информация по Шеннону, бит. - Информация и энтропия. - Информация в социальных и экономических системах - современный взгляд на информацию. - Человек как единственный источник социальной и экономической информации. - "Рабочее" определение терминов "управление" и "информация". - Система строгих определений: система ® иерархическая самоорганизованная система (ИСС) ® управление в ИСС ® 8 компонент информации (строгое определение). – Вопросы и задания. "Наивная" точка зрения на управление и информацию. В этой главе рассмотрим более подробно те ключевые понятия, которые задают все направление деятельности в области экономической кибернетики. В предыдущих главах мы уже писали о том, как трудно определить термин «информация», как много при этом возникает «подводных камней». Но, тем не менее, этот термин, наряду с термином «управление», являются ключевыми «игроками» на поле науки под наименованием «кибернетика». Кибернетика многие десятилетия бурно развивалась в направлении применения к системам техническим. В этой области получены весьма впечатляющие результаты, и игнорировать их вряд ли является разумным. Конечно, при этом мы не должны забывать о том, что сами мы занимаемся применением кибернетики к системам социальным и экономическим, - тем, в которых человек является активным действующим лицом. И все же – сначала поговорим об информации в системах технических. С чем обычно связывается феномен информации? Для получения количественных закономерностей, его нужно связать с каким-то измеримым количественным параметром. Что может подойти для этого? Какой параметр может быть «носителем» информации? Вот прозвучал урок и в аудиторию зашел ваш преподаватель экономической кибернетики и начал чтение лекции по разделу «информация и управление». Насколько информативно это сообщение для вашего собеседника? Вероятно, информации здесь мало, - ее даже может и не быть вообще, если ваш собеседник знает, что именно эта лекция и была запланирована на это время. Он скажет: «Вероятность этого события равна 1». Во всяком случае, это сообщение уж слишком «очевидно», чтобы нести информацию. Да и вы сами вряд ли будете рассказывать собеседнику очевидные вещи (то есть события, вероятность которых очень велика). Нет! Вы как раз будете рассказывать с наслаждением вещи неочевидные – но, тем не менее уже случившиеся. Например, если ваш преподаватель, вместо того, чтобы начать читать лекцию, вдруг возьмет да и спляшет – вот тогда – да! Вот тогда вы будете рассказывать об этом «направо и налево», и ваш рассказ будет пользоваться успехом! Вас будут переспрашивать, интересуясь наличием факта, а потом все будут строить разные догадки. Наконец, вас нетерпеливо будут подгонять восклицаниями «Ну и что же дальше?!» – в надежде услышать не менее интересное продолжение. Так что же именно интересует людей? Как легко видеть из приведенного примера (и множества подобных примеров, которых легко можно привести большое количество) – людей интересуют события 1) мало вероятные, но которые, тем не менее, являются 2) свершившимися. Именно когда эти два условия и имеют место – именно тогда такие события и называются «информативными», именно а этих случаях и говорят, что рассказ о них «несет информацию». Подытожим. В качестве «наивного» определения информации, мы можем взять следующее: Сообщение о событиях, которые имеют малую априорную информацию, несут много информации. Конечно, когда такие события имеют место. (Такое определение является, по сути, пост-фактумным определением (post-factum – по латыни «после факта, события»). Другими словами: мы полагаем, что вначале эти события происходят, а уж потом, после их наступления, мы сумеем измерить ту информацию, которая в них содержится. А как быть, если нам нужно знать информацию не после, а до наступления события?! Об этом – позже!) Вывод соотношения I =- log 2 P как пример применения математических методов в кибернетике. Таким образом, количество информации мы связали с количеством вероятности. Но как, какую функцию выбрать в качестве «перехода» от вероятности к информации, в качестве «перевода» вероятности в информацию? Прежде всего, вероятность и информация – это своего рода «взаимно обратные» величины: когда одна возрастает, другая, соответственно, убывает. Запишем это условие в следующем виде (3.1) Здесь I – информация, P - вероятность наступления события М, а f(W) – монотонно возрастающая функция (собственно, для этого и записали ее аргумент в виде обратной зависимости от вероятности). Теперь сформулируем «очевидное» правило: информация о двух независимых событиях должна быть равна сумме информации о каждом из них. Откуда появилось такое? Да просто «из соображений удобства: человеку гораздо удобнее работать с суммой, чем, например, с произведением. Итак, пусть мы приняли это условие. Таким образом, будем исходить из того, что имеется два независимых события. Но мы знаем, что вероятность наступления обоих событий в этом случае будет равна произведению вероятностей осуществления каждого события по отдельности (это следует из свойств вероятности, описанных в любом учебнике по теории вероятности и математической статистике). То есть для вероятности имеем соотношение: (3.2) А вот для информации мы должны иметь не произведение, а сумму «частичных» информаций – сумму значений информации о каждом из событий. С использованием (3.1) и (3.2) это можно записать в таком виде: (3.3) С целью простоты записи введем следующие обозначения: (3.4) Тогда (3.3) перепишется в виде (3.5) Соотношение (3.5) называется функциональным уравнением, потому что оно определяет (задает) вид функции, которая удовлетворяет именно такой зависимости от своих переменных. Это функциональное уравнение может быть решено следующим образом. Сначала возьмем частную производную по W2 от обеих частей соотношения (3.5), - при этом для вычисления производной воспользуемся равенством W= W1 W2. или (3.6) При переходе к последней записи учтено, что производная по W2 от W= W1 W2 равна W1. Теперь возьмем производную по W1 от обеих частей (3.6). Слева – будет производная от суммы двух функций, а справа – производная от соотношения, которое не зависит от переменой, по которой берется частная производная (то есть – справа будет ноль). Таком образом, приходим к соотношению: (3.7) Последнее равенство – это обыкновенное дифференциальное управление второго порядка для неизвестной функции f(W). Будем решать его стандартным способом, для чего сделаем замену Z= df/ dW. Тогда (3.7) превращается в обыкновенное дифференциальное уравнение первого порядка с разделяющимися переменными, которые легко решается. Не объясняя подробно процедуру решения, выпишем ниже только ключевые соотношения. Последнее равенство – это опять обыкновенное дифференциальное уравнение с разделяющимися переменными – но уже для нашей искомой функции. Решение его находится так: (3.8) Итак, мы получили для связи между величиной информации и вероятностью наступления определенного события (с которым как раз и связывается эта вероятность) выражение (3.9) Учтем, однако, что константа в (3.9) должна быть равна нулю, так как информация о наступлении очевидного события, вероятность которого равна Р=1, равна 0. Наконец, имеет место еще одно обстоятельство – уже историческое, которое и фиксирует нашу – пока еще в формуле (3.9) не определенную, константу К. А именно, следуя Шеннону, положим, что наступление события, которое имеет вероятность 1/2, несет нам количество информации, равное 1. Другими словами, окончательно приходим к «выражению для связи информации и вероятности» в виде, принятом в современной науке: (3.10) < I >, информация по Шеннону, бит. Итак, из (3.10) следует, что информация равна единице, если осуществится событие, вероятность которого равна 1/2. Такая единица измерения называется бит. Теперь зададимся вопросом: а как подсчитать среднее количество информации, которое мы получим, зная вероятности наступления нескольких событий? Из курса статистики (математической статистики или же статистики экономической) известно, что, если задана вероятность для осуществления значений переменных xi, среднее значение находится по формуле Поскольку нас интересует среднее значение информации, то подставляя в эту формулу выражение (3.10) для информации, характеризующей наступление i -того события, придем к формуле (3.11) Формула (3.11) часто называется формулой Шеннона, и дает выражение для расчета средней информации, полученной вследствие получения сведений о наступлении событий, каждое из которых имеет априорную вероятность Pi. Конечно, при этом должно выполняться условие нормировки для вероятностей, которые записывается в виде С использованием метода неопределенных множителей Лагранжа нетрудно доказать, что условие максимума информации достигается при условии, когда все события являются равновероятными. Тогда вероятность каждого события одинакова и обратно пропорциональна количеству событий. Информация и энтропия. В физике, еще с начала ХХ века, активно исследовался ряд вопросов, которые – в определенном смысле – являются «подобными» рассмотренному выше. Людвиг Больцман и Джозайя Гиббс задались следующим вопросом: если у нас вещество состоит из атомов, а его состояние определяется всего лишь небольшим числом характеристик, - то, вероятно, многие состояния разных атомов как-то «усредняются». В результате – появилась статистическая физика, которая получила огромное распространение и в рамках которой достигнут значительный прорыв в понимании Природы. Однако главное для нас – не это. Дело в том, что Людвиг Больцман получил для так называемой «энтропии» следующее выражение (3.12) Здесь S – это и есть энтропия, kB - так называемая постоянная Больцмана, W - количество макроскопически неразличимых состояний исследуемой системы. Почему, по какой причине так важно знать значение энтропии? Оказывается, что если оно известно, то существуют формулы, по которым можно вычислить все так называемые «термодинамические переменные» – все параметры, которые характеризуют состояние нашей системы. Таким образом, формула (3.12) дает возможность вычислить все макроскопические характеристики объекта, зная только его макроскопические (атомарные или молекулярные) характеристики. Так задача оказалась решена? К сожалению, это далеко не так: вычислить значение W оказалось возможным только для очень небольшого количества модельных систем! Реальные системы и объекты оказались «не по зубам» физикам. В рамках статистической физики показывается, что энтропия – это есть некая обобщенная «мера беспорядка» рассматриваемой системы. Чем большее значение энтропии – тем больший «беспорядок» имеется в системе, тем более она оказывается «неупорядоченной». Однако что такое есть управление? Как правило, наличие управления отождествляется с возрастанием порядка в управляемой системе. Следовательно, энтропия системы в процессе управления ею должна падать. Но процесс управления сопровождается также увеличением информации о системе. Таким образом, приходим к выводу: · Увеличение информации о системе равнозначно уменьшению энтропии в ней. Именно это обстоятельство и позволило многим ученым сформулировать тезис: Информация есть негативная энтропия рассматриваемой системы. Точнее следует сказать так: изменение информации о системе равно с обратным знаком изменению ее энтропии. Информация и энтропия имеют противоположные знаки: если беспорядок возрастает – то информация о системе убывает. Это определение отражает наши интуитивные представления об управлении (через ожидаемую (априорную) вероятность наступления того или иного события). Оно также связывает понятие «информация» именно с процессом управления. Используя такое определение термина информация, мы должны описать тот интерьер – то есть те условия, тот контекст, где такое определение «работает». Другими словами, мы должны привести определение понятия управление. Это можно сделать, например, в таком виде: Управление есть процесс упорядочения в системе. Конечно, нужно бы теперь заняться определение того, что именно мы понимаем под «упорядочением». Однако давайте пока что остановимся на этой стадии: «наведение порядка» – это достаточно понятное описание того, что делает любой управленец, любой менеджер в социальной или экономической системе. Другими словами – для интерьера социальных и экономических систем уже понятно, что именно понимается под термином управление, что именно, какая именно деятельность связывается с этим понятием.
|
||||
Последнее изменение этой страницы: 2021-04-05; просмотров: 105; Нарушение авторского права страницы; Мы поможем в написании вашей работы! infopedia.su Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав. Обратная связь - 3.141.201.46 (0.013 с.) |