Заглавная страница Избранные статьи Случайная статья Познавательные статьи Новые добавления Обратная связь FAQ Написать работу КАТЕГОРИИ: АрхеологияБиология Генетика География Информатика История Логика Маркетинг Математика Менеджмент Механика Педагогика Религия Социология Технологии Физика Философия Финансы Химия Экология ТОП 10 на сайте Приготовление дезинфицирующих растворов различной концентрацииТехника нижней прямой подачи мяча. Франко-прусская война (причины и последствия) Организация работы процедурного кабинета Смысловое и механическое запоминание, их место и роль в усвоении знаний Коммуникативные барьеры и пути их преодоления Обработка изделий медицинского назначения многократного применения Образцы текста публицистического стиля Четыре типа изменения баланса Задачи с ответами для Всероссийской олимпиады по праву Мы поможем в написании ваших работ! ЗНАЕТЕ ЛИ ВЫ?
Влияние общества на человека
Приготовление дезинфицирующих растворов различной концентрации Практические работы по географии для 6 класса Организация работы процедурного кабинета Изменения в неживой природе осенью Уборка процедурного кабинета Сольфеджио. Все правила по сольфеджио Балочные системы. Определение реакций опор и моментов защемления |
Порівняння результатів ідентифікаціїСодержание книги
Поиск на нашем сайте
Для порівняння результатів були побудовані криві навчання нечітких моделей у вигляді залежності похибки ідентифікації на контрольній виборці від розміру навчальної виборки (рис. 2.11). Кожна точка на графіку розраховувалась як среднє значення п´яти експериментів з різними випадково згенерированими навчальними виборками.
Середня кількість ітерацій навчання моделі типа Мамдані склало 1000, а моделі типа Сугено — 100 ітерацій. При невеликих об´ємах навчальної виборки кількість ітерацій зменшилась з метою вилучення ефекта перенавчання моделі. При малих навчальних виборках якість ідентифікації суттєво вище для моделі типа Мамдані. Це пояснюється тим, що початкова, основана на експертних висловлюваннях, нечітка модель вже відображує основні особливості ідентифікованої залежності. Зі збільшеннчм об´ема навчальної виборки липшу якість ідентифікації забезпечує модель типа Сугэено. Помітимо, що добрі результати ідентифікації отримуються, коли об´єм навчальної виборки в два і більше разів перевищує кількість налагоджуваних параметрів моделі. При збільшенні більше ніж в три рази об´єма навчальної выборки над кількістю налагоджуваних параметрів виникає ефект насичення — точність ідентифікації практично не поліпшується з збільшенням числа спостережень. При великих виборках точність ідентифікації моделі типа Сугено вище, ніж для моделі типа Мамдані. Але після навчання модель типа Мамдані залишається прозорою: ії параметри — функції належності — легко інтерпретуютбся лінгвістичними термами (див. рис. 2.9). Для моделей типа Сугено типоое явище — складність вмістовної інтерпретації ії параметрів. Наприклад, тяжко пояснити спеціалістам з прикладних областей — лікарям, біологам, соціологам — базу знань, аналогичну наведеній в табл. 2.3, не кажучи вже про інтерпретації функції належності терма in1mf1 (рис. 2.10). На рис. 2.11 в якості прикладу наведена також крива навчання і для аппроксимуючого полінома 4-го порядка. Видно, що похибка ідентифікації для нечітких моделей значно нижче, ніж для поліноміальних.
Дефаззификацией называется процедура преобразования нечеткого множества в четкое число. В теории нечетких множеств процедура дефаззификации аналогична нахождению характеристик положения (математического ожидания, моды, медианы) случайных величин в теории вероятности. Простейшим способом выполнения процедуры дефаззификации является выбор четкого числа, соответствующего максимуму функции принадлежности. Однако пригодность этого способа ограничивается лишь одноэкстремальными функциями принадлежности. Для многоэкстремальных функций принадлежности наиболее часто используется дефаззификация путем нахождения центра тяжести плоской фигуры, ограниченной осями координат и функцией принадлежности.
Приложение 2. Программа обучения нечеткой модели типа Мамдани
global FIS TR_INP TR_OUT NUM_TERMS FIS=readfis(‘mamdani0.fis'); %загрузка исходной нечеткой модели data=load('exp_data.dat'); %загрузка обучающей выборки TR_INP=data(l:tr_vol, 1:2); %значения входных переменных обучающей выборки TR_OUT=data (1: t r_vol, 3); %значения входных переменных обучающей выборки NUM_TERMS=[3 3 5 ]; %количество термов %=======УПРАВЛЯЕМЫЕ ПЕРЕМЕННЫЕ======================= % Коэффициенты концентраций функций принадлежностей %Первая входная переменная xl: vlb_inl_con(l:NUM_TERMS(l))=0.2; %ограничения снизу vub_inl_con(1:NUM_TERMS(1))=4; %ограничения сверху x0_inl_con(1:NUM_TERMS(1))=2; %начальные значения %Вторая входная переменная х2: vlb_in2_con(1:NUM_TERMS(2))= 0.15; %ограничения снизу vub_in2_con(1:NUM_TERMS(2))=2.5; %ограничения сверху x0_in2_con(1:NUM_TERMS(2))=1.35; %начальные значения %Выходная переменная у: vlb_out_con(1:NUM_TERMS(3))=0.15; %о граничения снизу vub_out_con(1:NUM_TERMS(3))=4.0; %ограничения сверху x0_out_con(1:NUM_TERMS(3))=1.0; %начальные значения %Координаты максимумов функций принадлежностей %некрайних термов vlb_center=[-6 -4 -4.5 -4.5 -4.5]; %ограничения снизу vub_center=[2 1.3 4.5 4.5 4.5]; %ограничения сверху x0_center=[-2 -1.35 -2.5 0 2.5); %начальные значения %Объединение управляемых переменных в один вектор: vlb=[vlb_inl_con vlb_in2_con vlb_out_con vlb_center]; %ограничения снизу vub=[vub_inl_con vub_in2_con vub_out_con vub_center); %ограничения сверху x0=[x0_inl_con x0_in2_con x0_out_con x0_center); %начальная точка %=======ЦЕЛЕВАЯ ФУНКЦИЯ=================================== funf='f=goal_fun(x); '; %задание файла целевой функции fung='g=[x(14)-x(15)+.5; х(15)-х(16) +.5]; '; %условия линейной упорядоченности fun=[funf fung]; %целевая функция + ограничения % = ======ПАРАМЕТРЫ АЛГОРИТМА ОПТИМИЗАЦИИ====================== options(1)=1; %вывод промежуточных результатов options(14)=1000; %максимальное количество итераций %=======ОПТИМИЗАЦИЯ========================================== [xopt options)=constr(fun, x0, options, vlb, vub); %=======ЗАПИСЬ НЕЧЕТКОЙ МОДЕЛИ НА ДИСК==== writefis(FIS) function delta=goal_fun(x) global TR_INP TR_OUT FIS NUM_TERMS out=length(NUM_TERMS); %количество переменных модели ii=l; %счетчик управляемых переменных % = = =УСТАНОВКА НОВЫХ ЗНАЧЕНИЙ ПАРАМЕТГОВ ФУНКЦИЙ ПРИНАДЛЕЖНОСТИ % - Коэффициенты концентрации %Для входных переменных: for j=l:out-l for i=l:NUM_TERMS(j) FIS. input (j).mf (i).params (l)=x(ii); end end %Для выходной переменной: for i=l:NUM_TERMS(out) FIS. output (1).mf (i). params (l)=10*x(ii); ii-il+1; end % Координаты максимумов %Для входных переменных: for i=2:NUM_TERMS(j)-1 FIS.input(j).mf(i).params(2)=x(ii); ii=ii+l; end end %Для выходной переменной: for i=2:NUM_TERMS(out)-1 FIS.output(1).mf(i).params(2)=10*x(ii); ii=ii+l; end %=======НЕЧЕТКИЙ ЛОГИЧЕСКИЙ ВЫВОД============== fis_out=evalfis(TR_INP, FIS); %=======РАСЧЕТ НЕВЯЗКИ========================= delta=sum((fis_out-TR_OUT).^2)/length(TR_OUT);
|
||||
Последнее изменение этой страницы: 2016-06-24; просмотров: 308; Нарушение авторского права страницы; Мы поможем в написании вашей работы! infopedia.su Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав. Обратная связь - 18.117.105.230 (0.009 с.) |