Методы распознавания образов 


Мы поможем в написании ваших работ!



ЗНАЕТЕ ЛИ ВЫ?

Методы распознавания образов



     1. ГЕОМЕТРИЧЕСКИЕ МЕТОДЫ.

В основе геометрических методов лежит понятие меры близости объектов в  n-мерном признаковом пространстве описаний. Центральной задачей при создании систем распознавания является выбор типа меры близости.

Меру близости необходимо выбирать таким образом, чтобы она, с одной стороны, отвечала представлению разработчика о близости объектов рассматриваемых классов, а с другой - позволяла бы упростить процедуры синтеза оптимальных частных алгоритмов.

Сущность меры близости применительно к рассматриваемому классу задач покажем на примере двух классов в 2-х мерном пространстве описаний.

 

 

 


Интерпретация рисунка приводит к естественному выводу о предпочтительности отнесения объекта Х к первому классу. В то же время классификация объекта Хi  вызывает затруднения и необходимы расчеты.

Очевидно, что классификация образов с помощью функции расстояния эффективен только в тех случаях, когда классы образов обнаруживают тенденцию к кластеризации (группированию).

Поскольку близость классифицируемого образа к образам класса будет использоваться в качестве критерия для его классификации, назовем такой подход классификацией образов по критерию минимума расстояния.

Классы могут быть представлены путем перечисления членов класса (как на рисунку: точки в кластерах) или с помощью эталонных образов (например, центральными объектами z1 и z2).

Заметим также, что в рассматриваемом классе задач описания объектов являются векторными.

Рассмотрим М классов. Пусть эти классы допускают их представление с помощью эталонных образов Z1,Z2,...,Zm.  Евклидово расстояние между произвольным вектором образа Х  и i-м эталоном определяется следующим выражением:

                                   _____________                                

       Di = || X - Zi || = √(X - Zi)/  (X - Zi)                                                  (1)

 где || Х || - Евклидова норма;

 

          х1

          х2

Х =   х3       - вектор образа распознаваемого объекта;

                   :

                  хn

 

          z1

Z =   :   - вектор образа эталона класса;

          zn

 

      

         n           1

|| Х || = [Σ Xj2  ]2

        j=1

 X / = (x1,x2,...,xn) - транспонированный вектор;

 

X / Z - скалярное произведение;

       n

X/ Z = Σ Xj/ Zj

      j = 1  

Классификатор, построенный по принципу минимума расстояния, вычисляет расстояние, отделяющее классифицируемый образ Х от эталона каждого класса, и зачисляет этот образ в класс,, оказавшийся ближайшим к нему. Другими словами, образ Х приписывается к классу Wi ,  если условие Di < Dj для всех j ¹ i.

Путем несложных преобразований исходно формуле (1) можно придать более удобный для вычислений вид.

 

di (X) = X/ Zi - 1/2  Zi/ Zi,                   i = 1,2,...,M,

 

где образ Х относится к классу Wi, если условие di (X) > dj (X) справедливо для всех   j ¹ i.

 

Пример:

      z1...  z5

z1/  = (1 2 6 3 1)           z2/ = (6 4 3 2 1)

        x/  = (1 3 5 2 1)

 

     
 


                                   

d1(x) = (1 3 5 2 1)     -1/2 (1 2 6 3 1)    =       (1+6+30+6+1) - 1/2 (1+4+36+9+1) =

 

 

= 44 - 1/2 51 = 18.5;

d2(x) = (6+12+15+4+1) - 1/2 (36+16+9+4+1) = 38 - 1/2 66 =5

d1(x) > d2(x), поэтому образ х  принадлежит первому классу.  

 Меры сходства не исчерпываются расстояниями. В качестве примера можно привести не метрическую функцию сходства

           z x /

s (x, z) = -----------,

       || x || || z ||      

представляющую собой косинус угла, образованного векторами  X и Z. Этой мерой целесообразно пользоваться, когда кластеры располагаются вдоль главных осей или растянуты вдоль лучей, направленных от начала координат.  

 

 

 

 


         

 

 

Однако использование данной меры связано с определенными ограничениями: достаточное отстояние кластеров друг от друга и от начала координат.

Для двоичных признаков (признаки принимают значения либо `` 0`` либо ``1``) может использоваться мера Танимото

           z x /

s (x, z) = -------------------.

    x / x + z / z - x / z

Перечисленные меры близости не учитывают корреляционные связи между признаками. Устранить этот недостаток позволяет критерий известный по названием расстояние Махаланобиса, определяемое для образов  x и m как

d = (x - m) /  с -1 (x - m),

где  c - ковариационная матрица совокупности образов, m - вектор средних значений, а х - представляет образ с переменными характеристиками(классифицируемый образ).

 

2. ЛОГИЧЕСКИЕ МЕТОДЫ

Объекты классов и реализация представляются в виде булевых функций:

Ωi  = fi (x1,..., xn), i = 1,...,k

и  G = (x1,..., xn).

Заданы правила использования булевых функций при распознавании:

W = (w1,..., wn).

Процедура распознавания состоит в определении неизвестной функции

 F(Ω1,...,Ωk),удовлетворяющей уравнению

 

_

G (x1,..., xn) + F(Ω1,..., Ωk)= I,                      (1)

Где  F - совокупность булевых функций априорного описания.                          

 

Пример:

                                   F(Ω1) = x1x2+x3  или 110 + 001

 Ωi = f1i + f2i  

                                  F(Ω2) = x1x3+x2  или 101 + 010

 

 

Правило классификации:

                       _                     _

 G ЄΩi,  если G + f1 = I или  G + f2 = I.

                                           _                        

Пусть G = x1 x2 или 110 (G = 001).

Найти  F такую, чтобы выполнялось равенство 1.

 

           _

          G + f1 = 001 + 110 = 111 = I

 Ω1 :    _

          G + f2 = 001 + 001 = 001 ¹ I

           _

           G + f1 = 001 + 101 = 101 ¹ I

Ω:2:    _

          G + f2 = 001 + 010 = 011 ¹ I

Вывод: G принадлежит Ω1.

 

3. СТРУКТУРНЫЕ МЕТОДЫ

При структурном подходе к распознаванию признаками служат образы, называемые непроизводными элементами, а также отношения между ними, характеризующие структуру образа.

Для описания образов через непроизводные элементы и их отношения специальный язык образов.

Правила такого языка, позволяющие составлять образы из непроизводных элементов, называется  порождающей грамматикой.

Пример:

Заданы непроизводные элементы:

                             в        d

         а       с    

и правило объединения: головная часть присоединяется к хвостовой по прямым углом и записывается, например, ав, т.е.

                      в

             а

Фигура             будет иметь следующую грамматическую структуру: авсd.


В основе процедур(алгоритмов) распознавания лежат правила грамматического разбора.

4. ВЕРОЯТНОСТНЫЕ МЕТОДЫ

Статистический подход основывается на математических правилах классификации, которые формулируются и выводятся в терминах математической статистики.

Пример. Пусть совокупность объектов подразделена на два класса -Ω1  и Ω2, а для характеристики объектов используется один признак х. Известны описания классов - условные плотности распределения вероятностей значений признака объектов 1-го и 2-го классов, т.е. функции f1(x) и f2(x), а также априорные вероятности появления объектов 1-го и 2-го классов: р(Ω1) и р(Ω2).

В результате эксперимента определено значение признака распознаваемого объекта, равное х0.

Определить, к какому классу относится объект?

Обозначим через х0 некоторое пока не определенное значение признака х и условимся о следующем правиле принятия решений:

n если измеренное значение признака распознаваемого объекта х00, то объект будем относить ко второму классу;

n если х0< х0 - к первому.

f(x)
      x
Q2               x0             Q1
  R1
  R2
   

 

Если объект относится к первому классу, а его считают объектом второго класса, то совершена ошибка, которая называется ошибкой 1-го рода.

Условная вероятность ошибки 1-го рода равна

     ∞

Q1 = ʃ f1(х) d(x)

     x0

Если объект относится ко второму классу, а его считают объектом 1-го класса, то совершена ошибка, которую называют ошибкой второго рада.

Условная вероятность ошибки 2-го рада равна

    x0   

Q2  = ʃ f2(x)

  -∞

Для определения значения х0 введем понятие платежной матрицы

= || с || =   с11 с12      ,

                         с21 с22

где с11  и с22 - потери, связанные с правильными решениями, а с12 и с21  - потери, связанные с совершением ошибок первого и второго рода соответственно.

Значение х0 определяется в зависимости от значения коэффициента правдоподобия

l (x) = f2(x)/f1(x).

Значению х0 соответствует критическое (пороговое) значение  l (x) = l0

          р(Ω1)(c12-c11)

l0

           p(Ω2)(c21-c22)

Значение х0 позволяет оптимальным образом (в смысле минимума среднего риска) разделить признаковое пространство на две области:  R1 и R2.

Область R1  состоит из значений х ≤ х0, для которых  l(x) ≤ l0 а R2 - из значений х > х0,  для которых  l(x) > l0

Поэтому решение об отнесении объекта к первому классу следует принимать, если значение коэффициента правдоподобия меньше его критического значения, и ко второму классу, если больше.

На практике при построении систем распознавания возможны ситуации, когда известны:

а) f1(x), f2(x), р(Ω1), р(Ω2) и ||с|

б) f1(x), f2(x)  и платежная матрица, но не известны р(Ω1), р(Ω2).

в) f1(x), f2(x), но не известны ни р(Ω1), р(Ω2) ни платежная матрица.

В каждой из этих ситуаций применяются свои критерии распознавания, а именно - критерий Байеса, минимаксный критерий, критерий Неймана-Пирсона.

Признаковая информация представляется в виде таблиц распознавания вида

Классы

             Градации признака хi

    хi1 xi2 ... xim
А1  0.6 0.5 ...          0.1
А2  0.7          0.4 ...  0.2
...  ... ... ...  
An  0.1 0.2 ...  0.1

 

Наиболее часто используется критерий Байеса, который выражается формулой

                     p (Aj) p (bk / Aj)

p (Aj / bk) =                           

                      M

                      S p(Ai) p(bk/Ai)

                                   i=1

где

p(Aj/bk) - вероятность гипотезы о принадлежности реализации bк  к j-му классу.

              Bk = { x1l,..., xnk,..., xNp},

              хi   - признаки классов, l,k,p -  градации признаков,  

p(Aj) - априорная вероятность проявления j-го класса(Aj);

 

p(bk/Aj)  - условная вероятность проявления признаков реализации bk у класса   Aj.

M - количество классов.

 

P(Aj) = mj / F (mj - количество объектов j-го класса, F - суммарное количество объектов всех классов). 

                       N

P(bk/Aj) = П p(xil/Aj), где p(xil/Aj) - вероятность проявления l-ой градации i-го

                  i=1

признака у класса Aj.

 

N - количество признаков в рабочем словаре.

 

В результате вычислений по формуле Байеса получим значения p(Aj/bk)  для каждого класса.

Решение о принадлежности реализации к конкретному классу принимается по максимуму вычисленной вероятности.

 

ЭКСПЕРТНЫЕ СИСТЕМЫ

КОНЦЕПЦИЯ ЗНАНИЙ

При изучении интеллектуальных систем традиционно возникает вопрос, – что же такое знания и чем они отличаются от обычных данных, десятилетиями обрабатываемых ЭВМ.

Можно предложить несколько рабочих определений, в рамках которых это становится очевидным.

Данные – это отдельные факты, характеризующие объекты, процессы и явления в предметной области, а также их свойства. Данные интерпретируются специальными программами. Они пассивны. Нет содержательной информации.

При обработке на ЭАМ данные трансформируются, условно проходя следующие этапы:

- данные как результат измерений и наблюдений;

- данные на материальных носителях информации (таблицы, протоколы, справочники);

- модели (структуры) данных в виде диаграмм, графиков, функций;

- данные в компьютере на языке описания данных;

- базы данных на машинных носителях.

Знания связаны с данными, основываются на них, но представляют собой результат мыслительной деятельности человека, обобщают его опыт, приобретенный в ходе выполнения какой-либо практической деятельности. Они получаются эмпирическим путем.

Знания – это выявленные закономерности предметной области (принципы, связи, законы), позволяющие решать задачи в этой области. Они могут быть активны, т.е. определенные действия при выполнении соответствующих условий.

В отличие от данных знания обладают следующими свойствами:

· внутренней интерпретируемостью – вместе с информацией в БЗ представлены информационные структуры, позволяющие не только хранить знания, но и использовать их;

· структурированностью – выполняется декомпозиция сложных объектов на более простые и установление связей между ними;

· связанностью – отражаются закономерности относительно фактов, процессов, явлений и причинно-следственные отношения между ними;

· активностью –знания предполагают целенаправленное использование информации, способность управлять информационными процессами по решению определенных задач.

Все эти свойства знаний в конечном итоге должны обеспечить возможность СИИ моделировать рассуждения человека при решении прикладных задач – со знаниями тесно связано понятие процедуры получения решений задач (стратегии обработки знаний). В системах обработки знаний такую процедуру называют механизмом вывода, логическим выводом или машиной вывода. Принципы построения механизма вывода в СИИ определяются способом представления знаний и видом моделируемых рассуждений.

При обработке на ЭВМ знания трансформируются аналогично данным:

- знания в памяти человека как результат мышления;

- материальные носители знаний (учебники, методические пособия);_

- поле знаний - условное описание основных объектов предметной области, их атрибутов и закономерностей, их связывающих;

- знания, описанные на языках представления знаний (продукционные языки, семантические сети, фреймы и т.д.);

- базы знаний.

   Часто используются такие определения знаний:

Знания – это хорошо структурированные данные, и данные о данных, или метаданные.

Существует множество способов определять понятия. Один из широко применяемых способов основан на идее интенсионала.

Интенсионал понятия – это определение через понятие более высокого уровня абстракции с указанием специфических свойств. Этот способ определяет знания.

Другой способ определяет понятие через перечисление понятий более низкого уровня иерархии или фактов, относящихся к определяемому. Это есть определение через данные, или экстенсионал, понятия.

Пример: интенсионал: курсант- это учащийся военного училища.

Экстенсионал: курсант- это Иванов, Петров….

Для хранения данных используются базы данных (для них характерны большой объем и относительно небольшая удельная стоимость информации), для хранения знаний – базы знаний – основа любой интеллектуальной системы.

Знания могут быть классифицированы по следующим категориям:

- поверхностные – знания о видимых взаимосвязях между отдельными событиями и фактами в предметной области;

- глубинные – абстракции, аналогии, схемы, отображающие структуру и процессы в предметной области.

Знания, на которые опирается человек, решая те или иную задачу, существенно разнородны.

Это прежде всего:

· понятийные знания (набор понятий и их взаимосвязи);

· конструктивные знания (знания о структуре и взамодествии частей различных объектов);

· процедурные знания (методы, алгоритмы и программы решения различных задач);

· фактографические знания (количественные и качественные характеристики объектов, явлений и их элементов).

 

Современные ЭС работают в основном с поверхностными знаниями, т. к. в настоящее время нет адекватных моделей, позволяющих работать с глубинными знаниями.

Кроме того, знания можно разделить на процедурные и декларативные. Исторически первичными были процедурные знания, т.е. знания, ”растворенные” в алгоритмах. Они управляли данными. Для их изменения требовалось изменять программы. Однако с развитием ИИ приоритет данных постепенно изменялся, и все большая часть знаний сосредотачивалась в структурах данных (таблицы, списки, абстрактные типы данных), т.е. увеличивалась роль декларативных знаний.

Сегодня знания приобрели чисто декларативную форму, т.е. знаниями считаются предложения, записанные на языках представления знаний, приближенных к естественному и понятных неспециалистам.

Существуют десятки моделей (или языков) представления знаний для различных предметных областей. Большинство из них м.б. сведено к следующим классам:

- продукционные;

- семантические сети;

- фреймы;

- формальные логические модели.

ПОЛЕ ЗНАНИЙ

Одна из наиболее творческих процедур при построении ЭС – процедура концептуального анализа полученных знаний или структурирование.

Структурирование – это процесс создания полуформализованного описания предметной области. Такое полуформализованное описание называется полем знаний. Обычно оно создается в графической форме.

Поле знаний Рz можно описать следующим образом:

                Pz=<Sk,Sf>,

где Sk  - концептуальная структура предметной области;

Sf – функциональная структура предметной области.

Концептуальная структура, или модель предметной области, служит для описания ее объектов и отношений между ними, т.е. можно сказать, что концептуальная модель Sk представляет собой следующее:

                      Sk=<A,R>,

где А – множество объектов предметной области;

  R – множество отношений, связывающих объекты.

Множество отношений представляет собой связи между объектами. При помощи этих отношений инженер по знаниям фиксирует концептуальное устройство предметной области, иерархию понятий, свойство и структуру объектов. Разработка концептуальной структуры имеет самостоятельное значение, не зависимое от конечной цели – разработки экспертных систем. Эта структура может служить для целей обучения, повышения квалификации, для прогнозирования, объяснения, реструктурирования и т.п.

 



Поделиться:


Последнее изменение этой страницы: 2020-03-13; просмотров: 268; Нарушение авторского права страницы; Мы поможем в написании вашей работы!

infopedia.su Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав. Обратная связь - 13.58.151.231 (0.106 с.)