ТОП 10:

Особливості формування нейро-фаззі систем



Основні поняття і визначення нечітких нейросіток.Деякі фаззі-правила легко піддаються інтерпретації як локальні задачі нейронної сітки. Ряд фаззі-правил системи взаємно незалежні і можуть оброблятися паралельно. Стосовно лінгвістичних змінних, які застосовуються у правилах, а також їх структурних взаємозв’язків у нейро-фаззі-системі задається структура задачі і тим самим виконується вимога до чітко структурованої локальної нейронної сітки.

Для пояснення сутності нечітких нейросіток нагадаємо принцип формування і функціонування простої НС, що складається з одного нейрона з двома входами (див. розд. 2.6). Вхідні сигнали x “взаємодіють” із синаптичними вагами :

 

Ці частинні добутки підсумовуються, утворюючи значення нейрону:

 

Вихід нейрону утворюється в результаті перетворення значень деякою активаційною ФН

 

Наведена однонейронна сітка, в якій використовуються операції добутку, підсумовування та сигмоїдна функція активації, уявляє собою стандартну НС.

Означення 4.1. Нечіткою нейронною сіткою називають НС з чіткими сигналами, вагами та активаційною функцією, але з об’єднанням і і із застосуваннямоперацій T-норми або T-конорми, які задовольняють властивості (3.1)–(3.8), або деяких інших неперервних операцій. Виходи, входи та ваги нечіткої НС ― дійсні числа, що належать відрізку

Нейронні сітки з фаззі-структурою. Основною метою при формуванні нейро-фаззі-систем є перетворення фаззі-системи в еквівалентну, так звану інтелектуалізовану НС (ІНС) таким чином, щоб ця сітка могла ініціюватися значеннями фаззі-системи. Після навчання результат з такої НС переводиться назад у фаззі-правила, які потім аналізуються експертом щодо їхньої прийнятності. Завдяки цій процедурі ІНС може доповнювати базу фаззі-правил.

Характерною для більшості прямих перетворень нейро-фаззі-структур є заміна всіх підфункцій фаззі-системи елементами, подібними до звичайних і спеціальних (нечітких) нейронів. Загалом, все це дає змогу оптимізувати параметри, використовуючи нейронні алгоритми навчання.

Фаззіфікуючий нейрон. Вже на етапі фаззіфікації, завданням якої є переведення вхідних змінних за допомогою ФН в лінгвістичні значення істинності, повинна враховуватися роздільність ділянок нелінійності характеристик (див., наприклад, рис. 2.18, в, д, розд. 2.6).

 

Приклад 4.1. Найпростіша можливість перетворення (фаззіфікація) відтворюється наведеним на рис. 4.2 прикладом, коли фаззіфікуючий нейрон (рис. 4.2, в) формується шляхом апроксимації ФН трикутної форми (рис. 4.2, а)

(4.1)

з площею апроксимованої поверхні у рівну за площею функцію Гауса (рис. 4.2, б), що може бути подано так:

 

де а площа функції Гауса

Рис. 4.2. Процес апроксимації ФН трикутної форми (а) у відповідну функцію Гауса (б) фаззіфікуючим нейроном (в)

 

Отже, з рис. 4.2 легко пересвідчитись, що фаззіфікуючий нейрон (рис. 4.2, в) на основі ФН (рис. 4.2, а) може бути безпосередньо параметризований.

 

Розглянемо ще декілька прикладів елементарних нечітких НС.

 

Приклад 4.2. Нечіткий нейрон «І». Сигнали та ваги у цьому випадку об’єднуються за допомогою Т-конорми (див. означення 3.16–3.17):

 

а вихід утворюється із застосуванням Т-норми (рис. 4.3, а)

 

Рис. 4.3. Структури нечітких нейронів: а«І»; б«АБО»

 

Якщо прийняти то нечіткий нейрон «І» реалізує композицію min-max:

(4.2)

 

Приклад 4.3. Нечіткий нейрон «АБО». Сигнали та ваги в цьому нейроні об’єднуються за допомогою T-норми:

 

а вихід утворюється за допомогою T-конорми (рис. 4.3, б):

 

Якщо прийняти то нечіткий нейрон «АБО» реалізує композицію max-min:

(4.3)

4.4. Відображення системи фаззі-управління в нейросітках

Для ФН вхідних сигналів, як ми переконалися, прийнятні тільки симетричні функції трикутної форми, тоді як для вихідних сигналів ― монотонні. Для логічних виведень застосовується максимінний метод, а для фаззіфікації ― спрощений метод центра ваги за залежностями (3.17)–(3.18).

Подання фаззіфікації. Слід зазначити, що трикутне подання ФН наближено відображає поведінку рецепторів у природі, що відповідає рівнянню

(4.4)

де відповідає номінальній точці, у якій ФН набуває значення 1; нахил обох гілок цієї функції. При цьому набуває весь заданий діапазон, а лише значення Для подання усього заданого діапазону вхідної величини необхідно застосування таких функцій. Як свідчить досвід роботи з фаззі-системами, як правило, достатньо семи ФН на одну вхідну величину.

В роботі [203] розглянуто спеціальну структуру фаззі-нейрона, де ФН включено у ваги вхідних сигналів і вхідні величини є чіткими. При цьому рівняння (4.4) в цьому випадку можна розглядати безпосередньо як вагову функцію для чіткої вхідної величини Недоліком тут є те, що сама вага також являє собою функцію. Тому на рис. 4.4, а наведено більш прийнятний для оптимізації підхід, який макс-функцію за рівнянням (4.4) переводить у відображаючу функцію а також реалізує розташування і форму ФН у вагах і

Рис. 4.4. Фаззі-нейрон для відображення фаззіфікації (а)

і нейрон для формування max-, min-операцій (б)

 

Логічне розв’язання в нейро-фаззі-системі. Фаззі-правило і його відповідне розв’язання, тобто зв’язок між нечіткими вхідною і вихідною множинами, є також нечіткими множинами, що уявляють собою сформований з цих двох множин висновок. Нехай маємо стандартне правило (див. розд. 3.4) «ЯКЩОА, ТОВ» з елементами передумови А і постумови (висновку) В і відповідними ФН і Тоді висновком буде основна множина і його можна подати у формі

(4.5)

Нагадаємо (див. розд. 3.4), що для визначення ФН існує декілька методів, з яких частіше застосовується min-операція, що відповідає логічному сполученню «І» нечітких множин:

(4.6)

Функція в рівнянні (4.6) задає для кожної величини максимум-обмеження величини ФН Декілька правил звичайно сполучаються за допомогою оператора «АБО» для того, щоб отримати діючу композицію усіх правил. Тому ФН композиції правил являє собою max-утворення ФН окремих правил (див. також приклад 3.4, приклад 3.5):

(4.7)

Тоді для результуючого логічного розв’язку (виведення) за сумою правил (4.6) і (4.7) маємо:

(4.8)

Логічне розв’язання. Логічне розв’язання повністю складається саме з таких аналогових max-, min-утворень. Для їх відображення на нейросітці спочатку визначаються її спеціальні тип і топологія, які здатні подати простою побудовою цю нелінійну функцію. Така схема відповідає лінійному типу НС (рис. 4.4, б), яка піддається спеціальному граничному випробуванню з вхідними величинами вагами до цих вхідних величин, граничною величиною і нелінійною функцією відображення

(4.9)

За допомогою цього типу сітки з вагами і як такої, що лінійно відображає функції формування максимуму

(4.10)

можна подати схемою (рис. 4.5, а).

Рис. 4.5. Формування максимуму (а) і мінімуму (б) для двох функцій у1 та у2

Логічний розв’язок, тобто імплікація частини «ЯКЩО» до частини «ТО», легко відображається за умови, якщо для величини на виході застосувати так званий фаззі-монотонний сигнал. У цьому випадку кожна величина на виході фаззі-системи складатиметься з ряду дискретних значень, які при розв’язанні визначаються їх вагами. Нехай є таким монотонним сигналом на виході з ФН а результуючий ступінь належності частини «ЯКЩО» правила; тоді для розв’язання буде справедливим таке правило:

(4.11)

Отже, завдяки застосуванню фаззі-монотонного сигналу в нейронному поданні формування мінімуму вироджується в лінійну передатну функцію з підсиленням, яке дорівнює одиниці. Монотонні величини в межах наступної дефаззіфікації однозначно розподіляються, що забезпечує можливість визначення ФН

Відображення дефаззіфікації. Чітка величина сигналу на виході при застосуванні фаззі-монотонного сигналу визначається залежностями (3.15), (3.19)–(3.21), і ця процедура детально розкривається в розд. 3.4. Інтерпретацію цієї процедури нейро-фаззі-компонентами, наприклад, для найпоширенішого методу розрахунку за законом центра ваги, можна подати такими міркуваннями. Скористуємося для цього видозміною залежності (3.15):

(4.12)

де керуюча дія, яка відповідає кожному фаззі-монотонному сигналу; ваги, які визначаються логічним розв’язком фаззі-системи. Отже, якщо розглядати як ваги, то лічильник може легко відтворювати рівняння (4.12) як лінійний нейрон з входами Аналогічно знаменник у виразі (4.12) можна відтворювати лінійним нейроном з вхідними вагами 1.

Для генерування сигналу на виході застосовується тип нейрона (рис. 4.7, а), який припускає в активаційній функції керовану вагою активність. В такому нейроні поряд зі змінюваною кількістю входів тільки величини ваг можуть змінюватися. У результаті залежність (4.12) однозначно трансформується в його нейронне уявлення.

На рис. 4.7, б наведено схему НС з комплексним нейро-фаззі-перетворенням, що включає фаззіфікацію, логічне розв’язання, max-min-композицію та дефаззіфікацію. Вхід сітки утворюється трьома ФН, на виході використовуються дві ФН. Поряд з вхідним і останнім шарами присутні також три сховані шари

Рис. 4.7. Тип дефаззіфікуючого нейрона (а) і нейросітка з комплексним

нейро-фаззі-перетворенням (б)

Перший схований шар з його вагами виконує фаззіфікацію, другий шар формує частину «ЯКЩО» правил, використовуючи при цьому виключно min-співвідношення, у той час, як max-співвідношення між двома фаззі-вхідними величинами перекриваються застосуванням двох правил. Третій схований шар формує композиційний логічний розв’язок за застосованими правилами. Між схованими шарами і вбудований настроювальний механізм для навчання сітки у вигляді регульованих ваг гранична величина відіграє роль фільтруючого елемента, а збурювання у вигляді діє на вході дефаззіфікуючого нейрона.

Кожна з ваг схованого шару подає пари взаємозалежних вільних настроювань які визначають параметри кожної ФН. Ваги шару можуть бути двійковими і в цьому випадку вони щоразу вводять або виключають імплікацію (операцію «І»). Можуть бути також застосовані аналогові ваги між 0 і 1, які уявляють собою довірчі коефіцієнти імплікації.

Ваги вихідного шару характеризують положення фаззі-монотонності у певному діапазоні сигналу на виході.

Якщо прийняти ваги шару (ФН-входу) аналоговими, ваги шарів і двійковими, а ваги останнього шару (фаззі-монотонності) теж аналоговими, то перетворення стає однозначним, тобто відображення буде на 100 відсотків достовірним. Це дозволяє скільки завгодно переходити від фаззі-зображення до нейро-зображення і навпаки.

Для оптимізації відомими методами навчання (див. розд. 2.6), наприклад, за допомогою алгоритму зворотного поширення, рекомендується використовувати аналогові ваги також і для схованих шарів і Це супроводжується, однак, одним недоліком, який полягає в тому, що при зворотному перетворенні ці аналогові ваги повинні знову переводитися у двійкові.

Алгоритм тренування нечіткої НС. Розглянемо типовий підхід до побудови алгоритмів навчання НС. Уявимо, що нечіткою НС повинно бути реалізоване невідоме відображення:

 

за наявності навчаючої множини

Для моделювання невідомого відображення використаємо спрощений алгоритм нечіткого виведення (див. розд. 3.4), застосовуючи таку форму запису предикатних правил:

 

де нечіткі числа трикутної форми; дійсні числа.

Ступінь істинності i-го правила визначається за допомогою операції добутку:

 

причому можна використовувати й будь-які інші подання для моделювання логічного оператора «І».

Вихід нечіткої системи визначається згідно з (3.18) для дискретного варіанта центроїдного методу:

 

Метою тренування є мінімізація похибки, що стосується кожного комплекту зразків (образів) так, щоб прийнятий комплект зразків був достатнім для виведення закону зміни ваги. Введення функції похибки для g-го поданого зразка виду

 

дає змогу в подальшому, як і у звичайних НС, використовувати градієнтний метод для піднастроювання параметрів заданих предикатних правил. Зокрема, величини можна корегувати за співвідношенням:

 

де константа, що характеризує швидкість навчання.

Процес тренування. На першому кроці реалізується грубий підхід на базі фоззі-системи. Цю первинну структуру загалом можна досить швидко знайти і часто можна безпосередньо застосовувати для поєднання з процесом, що моделюється, сприяючи одержанню попередніх результатів, які, однак, ще далекі від оптимальних. Сформована таким шляхом базисна структура вже визначає всі сигнали на вході і виході, які мають застосовуватися у фаззі-структурі, і являє собою стартовий комплект параметрів для наступної оптимізації із застосуванням НС.

На другому кроці у фазі навчання НС отримує від фаззі-системи всі сформовані нею прийнятні сигнали процесу і керуючі сигнали які надходять, наприклад, від людини-оператора (див. рис. 4.8, а). Вони рекурсивно спрягаються. На основі отриманої таким шляхом моделі виконується розрахунок похибки за критерієм якості (наприклад, формуванням середнього значення), з якого визначають, чи достатньо добре збігаються модель і дійсність. Якщо отримано задовільний збіг, подальше тренування припиняється, і НС або трансформована фаззі-структура готові до роботи в активному режимі з керованим процесом.

У тих ситуаціях, які не відтреновані НС, відбувається керування процесом оператором у ручному режимі, ІНФС перестає брати участь в роботі і переходить в режим нової фази тренувань.

 

Приклад 4.4.Як приклад розглянемо більш складну нечітку систему, що має наведену базу знань і до якої застосовується алгоритм Tsukamoto:

П1: ЯКЩО є І є І є ТО є
П2: ЯКЩО є І є І є ТО є
П3: ЯКЩО є І є І є ТО є

де вхідні змінні; вихід системи; деякі нечіткі множини з функціями належності сигмоїдного типу:

Для визначення вихідної змінної скористуємося алгоритмом Tsukamoto (ілюстративно наведено на рис. 4.9), у відповідності за яким:

  • підраховуються значення істинності передумов для кожного правила:

де поточні значення входів системи;

  • для кожного правила визначаються частинні виходи:
  • визначається загальний вихід системи:

Рис. 4.9. Ілюстративне подання прикладу 4.4 нечіткої системи

Нечітку НС, яка реалізує наведений у цьому прикладі механізм тренування і виведення, подано на рис. 4.10. Зауважимо, що сітка з такою архітектурою дістала також назву адаптивної системи з нейро-фаззі-виведеннями (Adaptive Neuro-Fuzzi Inference System).

Такі сітки можна описати так:

Шар 1. Виходи нейронів цього шару уявляють собою значення функцій належності при конкретних (заданих) значеннях входів.

Шар 2. Виходами нейронів цього шару є ступені істинності передумов кожного правила бази знань системи, які обчислюються за формулами:

Усі нейрони цього шару позначені символом і це означає, що вони можуть реалізовувати довільну T-норму (див. розд. 3.3) для моделювання операції «І».

Шар 3. Нейрони цього шару обчислюють величини (операція нормування):

Шар 4. Нейрони цього шару виконують операції:

Шар 5. Єдиний нейрон цього шару обчислює вихід сітки:

Коригування параметрів системи для функцій належності (див. рис. 4.9, приклад 4.4) виконується відповідно до раніше розглянутих підходів. Так, наприклад, настроювання коефіцієнтів для функцій належності здійснюється за формулами:

де

Рис. 4.10. Структура адаптивної системи з нейро-фаззі виведеннями

Відповідні вирази можна отримати і для решти коефіцієнтів

Визначають два підходи до модифікації топології нечіткої НС на етапах навчання та використання. Перший традиційний базується на введенні додаткових продукційних правил у базу знань системи з урахуванням виконання вимоги несуперечливості її поповнення.

Другий підхід, запропонований в роботі [56], передбачає генерацію нових продукційних правил (що не суперечать правилам з бази знань системи), виходячи з аналізу експериментальних даних про об’єкт.







Последнее изменение этой страницы: 2017-02-07; Нарушение авторского права страницы

infopedia.su Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав. Обратная связь - 3.233.215.196 (0.013 с.)