Мы поможем в написании ваших работ!



ЗНАЕТЕ ЛИ ВЫ?

Подання знань, інформація і процес прийняття рішень

Поиск

Подивимось більш детально на властивості і характеристики знань в проекції на їх функції в процесі прийняття рішень. Але, перш за все, дамо деякі необхідні означення.

Дані – синтаксичні сигнали (символьного, образного, жестового, сенсомоторного, звукового, електричного, магнітного, електромагнітного типу), що актуалізуються (тобто, можуть бути одержані, передані, перетворені, зібрані, оброблені, зареєстровані) за допомогою деякого джерела і розглядаються безвідносно до їхнього семантичного значення.

Інформація – це деяка послідовність даних з врахуванням їхньої семантичної сутності.

Повідомлення – форма актуалізації інформації, яка є змістом цього повідомлення (наприклад, SMS-повідомлення, телеграма, лист тощо).

Інформація завжди має носій, а її актуалізація пов’язана зі зміною носія (ресурсів).

Подання знань є процес, кінцева мета якого – це подання семантичного значення інформації у вигляді певним чином організованих інформативних повідомлень: фраз усної мови, речень письмової мови, сторінок книги, понять довідника, об’єктів географічної мапи, елементів і образів картини і т.п. Для цього необхідно користуватися певною конструктивною системою правил для подання і сприйняття інформації. Така система правил називається формалізмом представлення знань.

Є також знання, що не можуть бути формалізованими – це ті, що отримують з застосуванням неформалізуємих правил: евристик, інтуїції, здорового глузду, а, також, прийняття рішень на їх основі.

Виходячи з вищезазначеного, можна заключити наступне.

1. Знання - це більш високий ступінь організацій інформації, ніж просто інформація.

2. В системі підтримки прийняття рішень, експертних системах процес управління визначається знаннями, бо майже не залежить від будови системи.

3. Процеси подання знань можуть мати процедурну частину - програми. Але використання цих програм управляється знаннями, зокрема зв'язування параметрів та запуск програм можуть відбуватися автоматично в середині системі, що використовує знання без відома того, хто включив процес подання знань.

4. Знання поділяються на окремі фрагменти: опис об’єктів, ситуацій, процесів. Такі фрагменти звуться фреймами. Фрейми можуть бути пов'язані між собою родовидовими відношеннями, можуть бути вузлами елементних мереж.

5. В процесі роботи із знаннями важливий прагматичний бік. Знання завжди використовуються для конкретних цілей, для чогось, зокрема для вирішення найрізноманітніших проблем, навіть із складною структурою.

Однією з важливих форм (методів) формалізації знань є їх подання за класом (класифікація знань). Класифікація знань – це виділення деякого критерію (сукупності критеріїв) розподілу і групування знань таким чином, що в одну групу попадають лише ті знання, які задовольняють цьому критерію (сукупності критеріїв).

До появи нових ІТ, у зв'язку із труднощами формалізації підходу до актуалізації знань, більшість компаній не могли ефективно керувати цими активами. З появою нових інформаційних технологій з’явилася можливість керувати знаннями. Це особливо важливо для тих підприємств, що оперують високим рівнем знань, необхідних для наукоємного виробництва, і вартість продукції яких значно вища за вартість сировини, що використовується для її виробництва.

В предметних галузях знання можна умовно класифікувати наступним

чином.

 

1) Фактографічне або предметне - знання, що складається із набору кількісних та якісних характеристик об’єктів і явищ.

2) Процедурне або алгоритмічне – знання методів, способів, процедур деяких дій, що призводять до конкретного результату.

3) Концептуальне або понятійне - знання, що складається із сукупності основних понять і термінів, що використовується в якійсь певній сфері діяльності, їх властивостей, взаємозв’язків та взаємозалежностей.

4) Конструктивне – знання структурної будови певної системи (класу систем), підсистем системи і взаємодій між їхніми елементами.

5) Метазнання – знання про порядок і правила застосування знань.

Відома і така класифікація знань:

1. Розуміння, що набуваються фактичним досвідом.

2. Стан освіченості про будь-що, або володіння інформацією. Діапазон освіченості або інформованості.

3. Акт розуміння - ясне відчуття істини.

4. Щось зрозуміле, що тримається в розумі.

Є ще багато визначень, що таке є знання. У Френсіса Бекона: „Знання - сила". В рекламі: знання - цінна інформація, володіння світом. Для бізнесу знання – це рушійна сила, валюта свого роду, систематичне придбання, синтез, обмін та використання інформації, ідей, досвіду для отримання конкурентних переваг.

Робітник знань повністю володіє своїми «засобами виробництва»: інтелектом, пам'яттю, знаннями, ініціативою, особистим досвідом, які в явному вигляді заховані від інших, тобто інтелектуальним капіталом. В зв'язку з цим виникає проблема у власників підприємств: як, яким чином добувати приховані знання та перетворювати їх в явні, видимі, щоб їх зафіксувати та нанести на ті чи інші носії в той час, як робітник знань ще ефективно працює в колективі, коли він ще учасник спільної корпоративної справи, результатом якої є знання. Бо певні складності виникають на етапі, коли робітник звільняється і забирає з собою свої знання.

Знання - це те, що залишається, коли все інше (зайве) забуто.

Треба звернути увагу ще на одну особливість знань. Обмін знаннями не призводить до втрат, а, навпаки, збагачує. В наш час інформаційної революції інформація набуває матеріального сенсу, особливо в умовах конкуренції.

Інформація – одне з основних, ключових понять в усіх галузях сучасної діяльності людини. В той же час це поняття погано формалізуєме внаслідок його узагальненості, об’ємності і розпливчатості. Поняття інформації потребує конкретизації в різних сферах застосування. Дані, що використовуються для прийняття управляючих рішень в реальному часі (тобто в момент їх формування, отримання) безпосередньо стають інформацією. Ті ж дані, які накопичуються для подальшого їх використання (можливо з обробкою), можна класифікувати, як потенційну інформацію.

Взагалі, даних буває набагато більше, ніж потрібно інформації для прийняття рішень (є багато зайвих даних, тому що інформація, яка в них мається, не використовуються для прийняття рішень, тому їх можна вважати зайвими, і потрібна попередня обробка даних).

Інформація (в системі, про систему) по відношенню до навколишнього середовища буває трьох типів: вхідна, вихідна, внутрішня. По відношенню до цілей системи інформація буває оперативною, тактичною та стратегічною. По відношенню до кінцевого результату інформація буває початкова, проміжна і результуюча. Інформацію також класифікують:

• за стадією використання (первинна, вторинна і т.д.);

• за повнотою (надлишкова, достатня, недостатня);

• за відношенням до управління системою (керуюча, така, що радить, перетворююча);

• за відношенням до її змінності при актуалізації (постійна, змінна, змішана).

Можлива класифікація інформації і за іншими ознаками.

Отримувані дані служать базою для прийняття рішень. На практиці при управлінні виробничим процесом ці дані занадто об'ємні та різноманітні, і в первинному вигляді мало придатні для прийняття рішень. Оперативність управління досягається, шляхом відбору і обробки даних для конкретної ситуації, що є необхідною та достатньою умовою для прийняття рішень в конкретній ситуації.

Розглядаючи критерії оцінки інформації, слід визначити поняття «кількість» і «якість». Дослідженням методів передачі, зберігання і прийому інформації займається теорія інформації, інструментами якої служать теорія випадкових процесів, теорія кодування, математична статистика, теорія ймовірностей. Увага до проблеми передачі і кількісної оцінки інформації була привернута фундаментальними роботами Н. Вінера і К. Шеннона (США), що поклали початок теорії інформації. Значний внесок до теорії інформації внесли вчені з СРСР, - А.М.Колмогоров, О.О.Харкевич, В.О.Котельников, - роботи яких добре відомі фахівцям у всьому світі.

Найважливішим етапом в теорії інформації була кількісна оцінка інформації і її зв’язок з поняттям ентропії.

Оскільки інформація усуває деяку невизначеність, тобто незнання, то й опис будь-якої події або об'єкту формально можна розглядати як вказівку на те, в якому з можливих станів знаходиться описуваний об'єкт. Тоді протікання подій в часі є не що інше, як зміна станів, вибраних з деякою вірогідністю з числа всіх можливих. Чим вище рівень невизначеності вибору, тим більший об'єм інформації потрібний, і результат вибору має значний ступінь несподіванки. От чому в теорії інформації кількість інформації є мірою зняття невизначеності однієї випадкової величини в результаті спостереження за іншою.

Вище було зазначено, що інформація в різних предметних областях, в різних проблемах може розумітися і інтерпретуватися по-різному. Внаслідок цього є різні підходи до виміру інформації і різні способи введення міри кількості інформації. Наприклад, в інформатиці, як правило, виміру піддається інформація, представлена дискретним сигналом. При цьому розрізняють наступні підходи.

1. Cтруктурний: вимірюєтся кількість інформації простим підрахунком інформаційних елементів, складових повідомлення. Застосовується для оцінки можливостей пристроїв, що запам'ятовують інформацію, об'ємів передаваних повідомлень, інструментів кодування без врахування статистичних характеристик їх експлуатації.

2. Статистичний: враховує вірогідність появи повідомлень. За більш інформативне вважається те повідомлення, яке менш ймовірно, тобто найменше очікувалося. Застосовується при оцінці значущості отримуваної інформації.

3. Семантичний: враховує доцільність і корисність інформації. Застосовується при оцінці ефективності отримуваної інформації і її відповідності реальності.

В рамках структурного підходу до виміру інформації можливі три міри інформації: геометрична, комбінаторна і адитивна.

Геометрична міра визначає максимально можливу кількість інформації в заданих об'ємах. Міра може бути використана для визначення інформаційної ємкості пам'яті комп'ютера;

Комбінаторна міра оцінює можливість представлення інформації за допомогою різних комбінацій інформаційних елементів в заданому об'ємі. Комбінаторна міра може використовуватися для оцінки інформаційних можливостей деякої системи кодування;

Адитивність міри означає, що міра суми кінцевої або рахункової системи попарно непересічних множин дорівнює сумі їхніх мір:

Адитивна міра була запропонована в 1928 році американським вченим-електронщиком Ральфом Хартлі (1888-1970рр.) в його роботі «Передача інформації», де він вперше зробив спробу зміряти кількість інформації. Ним було запропоновано один з варіантів адитивної міри інформації, який отримав другу назву – міра Хартлі. Р.Хартлі був піонером в галузі теорії інформації. Він вперше ввів спеціальне позначення для кількості інформації – I і запропонував логарифмічну залежність між кількістю інформації і потужністю початкового алфавіту:

I =d• loga N,

де I – кількість інформації, що міститься в повідомленні;

d – довжина повідомлення;

а - основа системи числення, в якій зазначена довжина d;

N – потужність (кількість символів) початкового алфавіту.

Алфавіт – це кінцева множина різних знаків, символів, для яких визначена операція конкатенації (приписування, приєднання символа до символу або ланцюжка символів); з її допомогою по певним правилам з'єднання символів і слів можна отримувати слова (ланцюжки знаків) і словосполуки (ланцюжки слів) в цьому алфавіті (над цим алфавітом).

При початковому алфавіті, що складається з двох символів {0,1}, його потужність N = 2, і для довжини повідомлення з одного символа (d = 1) в двійковій системі числення (основа логарифма a дорівнює 2), маємо

I = 1•log22 = 1.

Дана формула дає аналітичне визначення одиниці виміру інформації по Хартлі: це кількість інформації, яка міститься в двійковій цифрі. Одиницею виміру кількості інформації в адитивній мірі є біт (від англ. BInary digiT - bit).

Формулу Хартлі вимірювання кількості інформації можна пояснити таким чином: для зняття невизначеності в ситуації з двох рівно імовірних подій необхідний один біт інформації; при невизначеності, що складається з чотирьох подій, достатньо два біти інформації, щоб визначити шуканий факт. Це міркування можна продовжити: 3 біта інформації відповідають невизначеності з 8 рівно імовірних подій, 4 біта — 16 рівно імовірних подій і так далі. Таким чином, якщо повідомлення указує на один з п рівно імовірних варіантів, то воно несе кількість інформації, рівне log2n. Дійсно, з наших прикладів log216=4; log28=3 і так далі.

Отже, при будь-якій невизначеності звуження області вибору вдвічі дає одну одиницю інформації.

Інший американський вчений Клод Шеннон (1916-2001рр.) в 1948 році, використовуючи методологію Р. Хартлі, звернув увагу на те, що при передачі словесних повідомлень частота використання різних букв алфавіту не однакова: деякі букви використовуються дуже часто, інші - рідко. Існує і певна кореляція в буквених послідовностях, коли за появою однієї з букв з великою вірогідністю слідує конкретна інша. Ввівши у формулу Р. Хартлі вказані імовірнісні значення pi, К. Шеннон отримав нові вирази для визначення кількості інформації:

 

 

де n – загальна кількість символів в повідомленні. Якщо частота використання будь-якої букви алфавіту рівноімовірна, тобто

рi = 1/n,

то з формули Шеннона можна отримати (як окремий випадок) формулу Хартлі:

I = log2n.

В статистичній фізиці добре відомий вираз, що зв’язує ентропію H (що є мірою хаосу) системи з ймовірністю реалізації даного макроскопічного стану системи з певним (дискретним) статистичним розподілом ймовірностей pi внутрішніх станів:

,

де k = 1.38 • 1023 (Дж/К) – це, так звана, константа Больцмана.

Порівнюючи вирази для I (по Шеннону) і H, ми бачимо, що величину I можна розуміти як ентропію із-за браку інформації в системі (про систему). Дійсно, складаючи між собою ліві і праві частини виразів для I і H і проводячи прості перетворення, отримаємо основне функціональне співвідношення між ентропією і інформацією системи:

I = H(log2e)/k.

Тому кількість інформації I по Шеннону ще називають інформаційною ентропією.

Величина ентропії вказує середнє число двійкових знаків (бітів), необхідних для розрізнення (запису) можливих значень випадкової величини.

Ентропійний підхід принципово змінив поняття інформації. Під інформацією тепер почали розуміти не будь-які повідомлення, що передаються в системі зв'язку, а лише ті, які зменшують невизначеність у одержувача інформації. І чим більше зменшується ця невизначеність, тобто чим більше знижується ентропія повідомлення, тим вище інформативність повідомлення, що поступило. Ентропія - це той мінімум інформації, який необхідно отримати, щоб ліквідовувати невизначеність алфавіту, використовуваного джерелом інформації.

З формули Шеннона випливають важливі висновки.

1. Збільшення кількості інформації свідчить про зменшення ентропії (збільшенні порядку) системи;

2. Зменшення кількості інформації свідчить про збільшення ентропії (збільшенні безладу) системи.

Позитивна сторона формули Шеннона – її абстрагованість від змісту інформації. Крім того, на відміну від формули Хартлі, вона враховує різність станів, що робить її придатною для практичних обчислень.

Як було зазначено вище, під повідомленням зазвичай мають на увазі інформацію, що виражена в певній формі і підлягає актуалізації. Повідомлення— це форма представлення інформації. Є різниця між кількістю інформації, представленої в двійкових цифрах, що зберігається або передається,, і кількістю інформації, що міститься в даному повідомленні. З погляду теорії інформації, невизначеність, що знімається в результаті передачі однієї сторінки тексту приблизно з 2000 знаків, може складати всього декілька бітів, тоді як ця ж сторінка при кодуванні букв 8 - елементними кодовими комбінаціями міститиме біт, хоча це не є кількість інформації, що є в даному тексті.

Немає необхідності для детального розгляду різноманітних напрямів класифікації інформації, що пропонуються. Виділимо тільки ті ознаки інформації, які істотно впливають на ефективність управлінських рішень: своєчасність, повнота, визначеність, достовірність. Наявність цих якостей обумовлює, як правило, і ефективність АСУ ТП в цілому.

Своєчасність отримання необхідної інформації — головна вимога для ухвалення ефективних управлінських рішень. Затримка в надходженні інформації до конкретного користувача приводить до втрати основної її властивості — цінності. Більш того, несвоєчасно отримана інформація може виявитися не тільки даремною, але і шкідливою.

Важливою якістю інформації є її повнота, яка обумовлюється характеристиками технологічного процесу реєстрації, збору і передачі даних. Технологією може бути передбачена реєстрація і передача всіх первинних даних про стан об'єкту управління або тільки деяку сукупність даних, необхідних на певний момент часу. Точність інформації характеризує можливість відображення стану об'єкту управління без спотворення його значень і залежить як від технічних засобів реєстрації даних, так і від методів їх збору і підготовки. Проте не всі дані, перетворені в інформацію, в рівній мірі впливають на ефективність рішень, що приймаються.

АСУ ТП повинна мати такий об'єм даних, перетворення яких забезпечить користувача мінімумом об'єктивно необхідної інформації для ухвалення ефективних управлінських рішень.

Об'єм інформації, необхідний користувачеві для вироблення і ухвалення управлінських рішень, обумовлюється, зокрема, наступними параметрами:

· складністю управлінського рішення або відповідних завдань управління;

· термінами реалізації конкретного рішення або завдання;

· формою і видом кінцевого результату ухвалення управлінського рішення або завдання.

Підсумовуючи викладене ми приходимо до відомої схеми функцій даних та знань в процесі прийняття рішень (рис. 22).

Рис. 22. Схема функцій даних та знань в процесі прийняття рішень

 

Оператор (суб’єкт) приймає рішення в складній системі, спираючись на свої знання та отриману інформацію. Тому виникає проблема узгодженості людського фактора в складних системах.

Головною задачею сучасної освіти є допомога в формуванні світогляду під кутом зору орієнтації в інформаційному просторі. Для набуття знань навіть з конкретної дисципліни потрібен критерій, стрижень. Системний підхід дозволяє не тільки систематизувати знання, але й визначити напрямки їх подальшого застосування.

 

Питання та завдання для самоконтролю.

 

1. Дайте визначення поняттю «знання». Що таке дані, інформація, повідомлення?

2. Яка різниця між знаннями і інформацією?

3. Яку роль відіграють знання при прийнятті рішень?

4. Навіщо людині знання?

5. Наведіть приклади класифікації знань і охарактеризуйте кожний з них.

6. Наведіть приклади адитивних мір кількості інформації і охарактеризуйте кожний з них.

7. Що таке інформаційна ентропія? Який зв’язок між кількістю інформації і ентропією?



Поделиться:


Последнее изменение этой страницы: 2017-01-24; просмотров: 651; Нарушение авторского права страницы; Мы поможем в написании вашей работы!

infopedia.su Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав. Обратная связь - 18.217.228.195 (0.01 с.)