ТОП 10:

В.И.Городецкий, М.С.Грушинский, А.В.Хабалов



МНОГОАГЕНТНЫЕ СИСТЕМЫ

(обзор)

В.И.Городецкий, М.С.Грушинский, А.В.Хабалов

Введение

В последнее десятилетиесреди различных направлений искусственного интеллекта на одно из ведущих мест все больше претендуют исследования, объединяемые общим названием “многоагентные системы”. Вообще говоря, исследования по интеллектуальным агентам и многоагентным системам имеют уже почти сорокалетнюю историю, но только в последнее время эти исследования действительно оформились в самостоятельный обширный и многоплановый раздел искусственного интеллекта, который привлекает к себе лучшие силы исследователей из различных областей, причем не только из искусственного интеллекта. Причин такого неожиданного интереса к многоагентным системам немало и они разные, но главная, по-видимому, в том, что этот интерес естественно обусловлен достижениями в области информационных технологий, искусственного интеллекта, распределенных информационных систем, компьютерных сетей и в компьютерной технике. Многоагентные системы имеют реальную возможность интегрировать в себе самые передовые достижения перечисленных областей, демонстрируя принципиально новые качества. Можно без сомнений утверждать, что появление этого направления свидетельствует о новом уровне, достигнутом в области информационных технологий и искусственном интеллекте, в частности, а темпы его прогресса дают основания предсказывать ему ведущую роль в ближайшие десятилетия в широком круге приложений.

Как отмечено в работе [30], первоначально идея интеллектуального посредника ("агента") “возникла в связи с желанием упростить стиль общения конечного пользователя с компьютерными программами, поскольку доминирующий, в основном, и ныне стиль взаимодействия пользователя с компьютером предполагает, что пользователь запускает задачу явным образом и управляет ее решением. Но это совершенно не подходит для неискушенного пользователя. Иначе говоря, сначала идея интеллектуального посредника возникла как попытка интеллектуализации пользовательского интерфейса.”

Развитие методов искусственного интеллекта позволило сделать новый шаг к изменению стиля взаимодействия пользователя с компьютером. Возникла идея создания так называемых "автономных агентов", которые породили уже новый стиль взаимодействия пользователя с программой. Вместо взаимодействия, инициируемого пользователем путем команд и прямых манипуляций, пользователь вовлекается в совместный процесс решения. При этом, как пользователь, так и компьютерный посредник, оба принимают участие в запуске задачи, управлении событиями и решении задачи. Для такого стиля используется метафора "персональный ассистент" (ПА) [30, 32], который сотрудничает с пользователем в той же рабочей среде.

Главная особенность интерфейса, обеспечиваемого ПА, состоит в том, что этот интерфейс оказывается персонифицированным. Последнее достигается за счет того, что ПА наделяется способностью к обучению. В самом простом варианте, ПА получает информацию о привычках пользователя путем, как говорят, "подглядывания из-за плеча" за работой своего пользователя. Обучаясь интересам, привычкам и предпочтениям пользователя, а также окружающего его сообщества пользователей (это те, кто доступен персональному ассистенту через компьютерную сеть), ПА может стать весьма полезным, причем в различных аспектах: выполнять решение задач по поручению пользователя, тренировать его, управлять событиями и процедурами. Заметим, что по существу персонификация пользовательского интерфейса- это новый резерв его интеллектуализации, который удачно дополняет “интеллектуальность интерфейса”, которая традиционно ассоциируется только с экранными графическими средствами.

Исследования и экспериментальные программные разработки довольно быстро показали, что множество задач, в которых ПА с большой пользой может ассистировать пользователю, практически неограниченно: отбор информации, просмотр информации, поиск в Internet, управление электронной почтой, календарное планирование встреч, выбор книг, кино, музыки и т.д. Разработки в этой области поддерживались и поддерживаются такими известными фирмами, как Apple, Hewlett Packard, Digital, японскими фирмами. Метафора "персонального ассистента" была заменена метафорой "интеллектуального посредника", или, как стали чаще говорить на русском языке - "интеллектуального агента" (ИА).

Постепенно эта идея вышла за рамки интеллектуального пользовательского интерфейса, она все более и более ориентировалась на идеи и методы искусственного интеллекта, на активное использование тех преимуществ, которые дают современные локальные и глобальные компьютерные сети, распределенные базы данных и распределенные вычисления. Активное развитие методов и технологий распределенного искусственного интеллекта, достижения в области аппаратных и программных средств поддержки концепции распределенности и открытости привели к осознанию того важного факта, что агенты могут интегрироваться в системы, совместно решающие сложные задачи. Это означало появление новой парадигмы распределенных систем искусственного интеллекта. Системы такого рода и получили название многоагентных систем. В настоящее время многоагентная система рассматривается как множество интеллектуальных агентов, распределенных по сети, мигрирующих по ней в поисках релевантных данных, знаний и процедур и кооперирующихся в процессе выработки решений. По сути возникла новая парадигма сообщества "программных роботов", цель которых - удовлетворение различных информационных и вычислительных потребностей конечных пользователей.

Структура исследований в области многоагентных систем в настоящее время очень широка и сравнима с широтой исследований в области искусственного интеллекта. Это не случайно, поскольку обусловлено именно интегрированностью самого понятия такой системы, сложностью архитектуры и многообразием компонент каждого отдельного агента, многообразием математических и программных средств, используемых при его описании и разработке, сложностью структуры и разнообразием вариантов взаимодействия агентов между собой, сложностью и разнообразием компонент внешней среды, в которой функционируют агенты и т.д.

С некоторой долей условности исследования в области многоагентных систем можно разделить на такие основные направления:

-теория агентов, в которой рассматриваются формализмы и математические методы для описания рассуждений об агентах и для выражения желаемых свойств агентов;

-методы кооперации агентов (организации кооперативного поведения) в процессе совместного решения задач или при каких-либо других вариантах взаимодействия;

-архитектура агентов и многоагентных систем - это область исследований, в которой изучается, как построить компьютерную систему, которая удовлетворяет тем или иным свойствам, которые выражены средствами теории агентов;

-языки программирования агентов;

-методы, языки и средства коммуникации агентов;

-методы и программные средства поддержки мобильности агентов (миграции агентов по сети).

Особое место занимают исследования, связанные с разработкой приложений многоагентных систем и инструментальных средств поддержки технологии их разработки. Можно еще упомянуть проблемы, связанные с аутентификацией(авторизацией) агентов, обеспечением безопасности и ряд других.

В данном обзоре будет кратко рассмотрено состояние исследований по первым четырем из упомянутых направлений. Проблемы организации коммуникаций агентов частично будут затронуты при обзоре языков программирования агентов. Остальные вопросы, в частности, методы и средства поддержки мобильности агентов, не относятся впрямую к искусственному интеллекту и достаточно специфичны. Они в значительной части связаны с проблемой стандартизации интерфейсов (протоколов) компьютерных сетей для поддержки концепции открытости (обеспечения возможности функционирования в гетерогенной сети - на разнотипном оборудовании и на разных операционных платформах), защиты информации, с проблемой разработки специального сетевого программного обеспечения и почти не связаны с проблемами искусственного интеллекта. Эти проблемы исследуются и решаются в сообществе соответствующих специалистов.

Что касается приложений многоагентных систем, то в настоящее время работы здесь ведутся настолько широким фронтом, что для освещения этой проблемы требуется специальная работа, поэтому здесь этот вопрос не рассматривается.

 

Теория агентов

 

Теория агентов, вообще говоря, рассматривает агента и многоагентную систему как “интенсиональную систему”, полагая, что агент наилучшим образом описывается именно в интенсиональном стиле, для которого требуется непротиворечивое описание с использованием подмножества перечисленных ранее ментальных понятий. По этой причине теория агентов в настоящее время -это прежде всего формальные модели ментальных понятий и правил манипулирования с ними, но не только это. Дополнительный и очень важный раздел теории- это представление динамических аспектов функционирования как отдельного агента, так и сообщества агентов, при этом последняя задача выводит проблему за те пределы, которые исследуются традиционно в искусственном интеллекте в рамках темпоральных и других логик. Динамические аспекты функционирования многоагентной системы столь специфичны и новы, что они образуют специальный раздел исследований, который можно было бы назвать теорией кооперативного (коллективного) поведения многоагентных систем. В данном обзоре этот раздел теории агентов рассматривается отдельно(см. раздел 4).

Рассмотрим вопрос о моделях ментальных понятий. Первые попытки построить такие модели базировались на языках исчисления предикатов первого порядка, однако они не оказались удачными. Можно привести пример, из которого становится очевидным неадекватность исчисления предикатов первого порядка для формализации ментальных понятий[4]. Например, мы хотим представить формальную модель утверждения "Агент А убежден, что агент Б имеет информацию X“:

 

Bel( Aгент_А, Имеет(Агент_Б, X)).

Очевидно, что приведенная формула не является правильно построенной формулой исчисления предикатов первого порядка, поскольку вторым аргументом предиката Bel(*,*) является, в свою очередь, предикат. Однако это чисто синтаксическая проблема и она преодолевается, например, использованием мета-языка. Но есть потенциально и еще гораздо более серьезная семантическая проблема. Например, предположим, что некий третий агент имеет информацию Y, имя которой является другим именем той же информации X. Тогда допустимое для предикатов первого порядка равенство (X=Y) приводит в нем к выводу:

 

Bel( Aгент_А, Имеет(Агент_Б, Y)).

 

что по сути совсем не то, что первое убеждение. Аналогичные, если не более сложные проблемы возникают при попытках формализации в рамках исчисления первого порядка и других ментальных понятий.

Очевидно, что отмеченные выше трудности объясняются тем, что ментальные понятия, вообще говоря, сами по себе являются, как отмечено в работе [58], относительно “темными”, “неясными”, “в которых стандартные правила подстановки исчисления предикатов первого порядка вообще не работают”.

При выборе формализмов для описания ментальных понятий, как следует из вышесказанного, нужно решать два класса проблем: синтаксическую проблему и семантическую, а любой формализм представления ментальных понятий (как и для представления любой другой информации) должен иметь два отдельных аспекта: свой язык формализации и свою семантическую модель.

Как отмечается в работе [58], среди известных к настоящему времени результатов относительно невелик выбор подходов к описанию синтаксиса и семантики. Для описания синтаксиса автор этой работы видит только два варианта:

-использование мета-языков (имеется в виду многосортная логика первого порядка с термами, которые обозначают формулы других языков, при этом ментальные понятия представляются предикатами мета-языка);

-использование расширений известных модальных логик, содержащих специальные модальные операторы (имеющие “не истинностные” значения), применяемые к формулам.

Первый из вариантов представления синтаксиса достаточно традиционен и по сути его использование является чисто технической проблемой. Второй вариант более интересен и, как представляется, обладает более мощными выразительными возможностями. Однако, ввиду динамического характера функционирования агента и многоагентной системы, эти логики должны дополняться средствами описания темпоральных аспектов ментальных понятий, а зачастую, и средствами описания свойств, связанных с реальным временем. Далее в качестве иллюстрации использования расширений модальных логик для формализации ментальных понятий будет приведен подход, предложенный в работах [19, 20].

Что касается семантического аспекта языка формализации ментальных понятий, то здесь тоже выбор относительно невелик, их тоже два. Наиболее известный (и для теоретиков наиболее привлекательный)- это семантика, представляемая множеством возможных миров. Другой вариант- это интерпретация символических структур с помощью поставленных им в соответствие функций (алгоритмов) и структур данных. Оба подхода получили свое развитие и применение в области искусственного интеллекта.

Семантика множества возможных миров хорошо известна и восходит к работам [24, 27]. В этой семантике ментальные понятия интерпретируются множеством возможных миров и отношением достижимости (доступности) между ними. С каждым возможным миром ассоциируется некоторая теория (множество формул и атомарных предикатов- фактов, про которые известно, что они истинны). Например [58], если один их игроков в покер получил какую-то карту, скажем, пиковую даму, то он может сделать некоторые выводы о допустимых н недопустимых раскладах карт у других игроков, и множество всех допустимых раскладов карт образует возможный мир игрока (агента) А для теории “Игрок (агент) А получил пиковую даму”. Другое дело, что построить такое множество раскладов и им руководствоваться в своей стратегии для игрока (агента) А нереально.

Представляется, что семантика возможных миров сложна для применения в практических задачах многоагентных систем, что видно уже из приведенного только что примера. Семантика множества возможных миров предполагает по умолчанию так называемое “логическое всеведение” (“logical omniscience’), т.е. предположение о том, что агенту на любом шаге выбора решения доступно все, что истинно в каждом возможном мире (может быть выведено из теории). Тем не менее, в ряде формализаций, одна их которых рассматривается ниже в данном разделе, используется именно такой подход к заданию семантики.

Альтернативные варианты задания семантики языка, как уже отмечалось, связаны с использованием интерпретации символических структур с помощью ассоциированных с символами или их цепочками алгоритмов и структур данных. Этот подход у прикладников пользуется большей популярностью и достаточно хорошо известен.

С эволюцией взглядов на формализацию синтаксиса и семантики языков описания ментальных понятий можно познакомиться кратко по работе [58], хотя с автором можно соглашаться не во всем.

Дополнительно к уже сказанному на эту тему, опишем в качестве примера подход к формализации ментальных понятий, предложенный в работах [19,20], который базируется на синтаксисе предложенного авторами варианта многомодальной логики ветвящегося времени и на семантике в форме множества возможных миров.

Эта работа интересна в том отношении, что, во-первых, рассматривает в рамках единой логики формализацию трех основных ментальных понятий агента: убеждений, желаний и намерений; во-вторых, формализует динамику внешней среды и поведения агента с помощью так называемой логики ветвящегося времени; в третьих, в этой работе вводится строго семантика на базе множества возможных миров и доказываются, что введенная логика полна. Наконец, в работе приводится конструктивная процедура тестирования формул на выполнимость и тождественную истинность на основе таблиц. В некотором смысле эта работа является наиболее продвинутой в области методов формального описания ментальных состояний агента и представляется весьма полезной как для понимания смысла ментальных понятий агента, так и для формализации и конструирования сложных многоагентных систем.

Авторы называют убеждения информационной компонентой состояния агента, желания- мотивационным состоянием (компонентой), а намерения - его “рассудительной” (deliberative)[5] компонентой. Приведем небольшой пример, построенный по аналогии с примером из работы [19], для того, чтобы пояснить с помощью семантики возможных миров содержание названных компонент ментального состояния агента.

Пусть некий месье Жилизю, который в настоящее время является Председателем оппозиционной партии, имеет желание перейти в Правительство. При этом может заручиться поддержкой партии или действовать самостоятельно. Партия может поддержать его действие (“Да”) или не поддержать (“Нет”), причем при удаче он должен будет покинуть место председателя партии, а при неудаче “товарищи по партии” могут не простить ему такую попытку, и тогда месье Жилизю должен будет покинуть политику вообще.

На рис.1 представлено дерево решений. В этом дереве имеются три вида вершин:

-детерминированные, в которых решения принимает сам претендент (они обозначены кружками);

-недетерминированные, в которых решения принимает “внешняя среда” (они обозначены квадратами) и

-терминальные (обозначены кружками), около них проставлены числа, имеющие смысл “дохода” претендента от реализации того или иного варианта, отраженного последовательностью вершин-решений и дуг, их связывающих.

 

На рисунке показаны также вероятности и условные вероятности событий в вершинах, соответствующих недетерминированным действиям среды. Жирными линиями показаны оптимальные варианты действий претендента Варианты, связанные с уходом месье Жилизю из политики, на схеме не показаны, далее будет ясно, почему это сделано.

Предположим, что эту непростую задачу ввиду занятости партийными делами и для снятия с себя ответственности месье Жилизю поручает интеллектуальному агенту. Представим задачу в терминах ментальных понятий этого агента.

Рассмотрим сначала возможные миры для убеждений агента. Будем преобразовывать дерево решений таким образом. Начиная с корня дерева, будем фиксировать все пути в терминальные вершины, удаляя при этом вершины, отвечающие

 

 


Рис.1. Обычное дерево решений

недетерминированным действиям среды (“склеивая дуги” входящую в такой узел и выходящую из него) и фиксируя вероятности соответствующих исходов как вероятности возможных миров. Эти возможные миры с сопоставленными им вероятностями представлены на рис.2.

 
 


 

Рис.2.Возможные миры для убеждений

 
 

 

 


Рис.3. Возможные миры для желаний

 

 
 

 

 


Рис.4.Возможные миры для намерений

 

Множество возможных (достижимых) миров для желаний отличается от таковых для убеждений тем, что, во-первых, отлучение от политики (соответствующий узел помечен на рис.2 меткой “пенсия”) не является желаемым состоянием для месье Жилизю, а во-вторых, в этих мирах терминальным узлам ставится в соответствие еще значение функции выгоды. Множество возможных (достижимых) миров для желаний изображено на рис.3.

Что касается намерений, то в возможных мирах для желаний им отвечает тот стиль поведения, который приводит к оптимальным значениям функции выгоды. Эти миры иллюстрируются на рис.4.

Особенность поиска решения агентом, в отличие от дерева решений, состоит в том, что агенту неизвестны вероятности, приписываемые возможным мирам ментальных понятий и потери от выбора той или иной стратегии. Именно это является причиной и оправданием перехода от численной задачи к логической.

Приведем краткие сведения о мультимодальной логике, введенной в комментируемой работе для формализации ментальных состояний агента.

Язык этой логики включает в себя традиционные компоненты:

-непустое множество примитивных пропозиций ;

-пропозициональные связки и Ø;

-модальные операторы (“агент убежден, верит”), (“агент желает”) и (“агент намерен”);

-временные операторы (“следующий”), ("до тех пор, пока"), (“когда-нибудь в будущем”), (“некоторый путь в будущем”).

Все остальные связки, например, , É, º, (“всегда в будущем”), (“раньше”), (“неизбежно в будущем”), могут быть выражены через уже введенные.

Правильно построенные формулы языка вводятся практически обычным образом с некоторыми особенностями, которые к цели данного описания особого отношения н имеют. Далее авторы вводят семантику возможных миров, на формальной стороне которой здесь нет смысла останавливаться, а суть ее может быть пояснена вышеприведенным примером (см. рис.2-4). Не будем также останавливаться на той части аксиоматизации, которая относится к правилам манипуляций с временными операторами. Остановимся лишь на аксиоматике модальных операторов.

Аксиоматика на операторах убеждения, желания и намерения включает в себя следующие группы аксиом.

K-аксиомы:

 

G-аксиомы (аксиомы обобщения - “каждая тождественно истинная формула содержится в убеждениях, желаниях и намерениях агента”):

|- then|- ,

|- then|- ,

|- then|- .

Следующие три аксиомы выражают непротиворечивость убеждений (D-аксиома), позитивную (4-аксиома - в терминологии авторов) и негативную (5-аксиома - тоже в терминологии авторов) способность агента к интроспекции (убеждений о своих убеждениях):

(D) Ø

(4)

(5) Ø

Непротиворечивость желаний и намерений выражается следующей парой так называемых D-аксиом:

Ø ,

Ø .

Эти аксиомы здесь приводятся только для того, чтобы показать путь, который используется для формализации ментальных понятий в терминах модальных операторов с соответствующей аксиоматикой. Естественно, что это лишь очень малый фрагмент описания мультимодальной логики ветвящегося времени, которая в цитируемой работе продвинута достаточно далеко.

Интересным является вопрос о формальных отношениях, в которых могут находиться ментальные понятия. Принято [19] различать два типа отношений между ними. Одно из них- это теоретико-множественное отношение порядка, а другое- структурное отношение порядка. Возможные варианты теоретико-множественных отношений для пары ментальных понятий - “убеждения- желания” приведены на рис.5 а,б,в,г.

 
 

 

 


а) б) в) г)

Рис.5.Теоретико множественные отношения миров ментальных понятий

 

Рис.5а отвечает случаю, когда множество желаемых миров является подмножеством тех, в возможности которых агент убежден. Например, агент убежден, что он может “разбогатеть”, если будет играть в “Русское лото” и стать “бедным”, если вложит средства в разведение винного сорта кукурузы в условиях вечной мерзлоты[6]. Очевидно, что второй путь для него не включается в множество его желаний. Вариант б) отвечает случаю, когда не все желаемые миры таковы, что агент убежден в их достижимости. Например, агент может желать разбогатеть, играя в “Русское лото” или победив на выборах в губернаторы г.Москвы. Однако, он не убежден, что второй вариант для него достижим. Аналогичные примеры можно привести и для двух других оставшихся вариантов- в) и г), хотя последний из них не имеет практического смысла. Очевидно, что такие же теоретико-множественные отношения могут быть заданы и для пар “желания- намерения” и “убеждения-намерения”.

Рассмотрим теперь структурные отношения порядка. Эти отношения определяются в связи с тем, что убеждения, желания и намерения могут представлять собой древовидные структуры, последовательность ветвей которых отвечает последовательности дискретных моментов времени, т.е. ментальные понятия в возможном мире являются временными деревьями. Четыре варианта таких отношений приведены на рис. 6 а, б, в и г (рисунок заимствован из работы [19]).

 

а) б)

 
 

 

 


в) г)

 

Рис.6. Структурные отношения на ментальных понятиях - временных деревьях

 

На рис. 6а представлен вариант, когда Desire- возможный мир является под-миром возможного мира убеждений. Рис. 6б отвечает обратному отношению. В случае, представленном на рис.6в, эти миры совпадают, а на рис.6г миры несравнимы.

Все возможные варианты соотношений множества миров убеждений и миров желаний включают в себя различные комбинации, которые получаются при разных сочетаниях теоретико-множественного порядка и структурного порядка. Всего их девять, если не рассматривать варианты несравнимости. Обычно такие отношения рассматриваются для всех трех ментальных понятий. Различные варианты, которые при этом получаются, служат основой для классификации задач представления ментальных понятий [19].

В настоящее время теория (ментальных понятий) агентов, к сожалению, не выходит за пределы логической парадигмы. В этом смысле исследователи в данной области повторяют предпочтения, путь и ошибки, которые были характерны для исследователей в области искусственного интеллекта в 60-70х годах. Представляется, что обращаясь к таким сугубо антропоморфным понятиям, как убеждения, желания, намерения и др., следовало бы учесть уже достаточно большой (положительный и отрицательный) опыт по формализации человеческих рассуждений, накопленный в области искусственного интеллекта. Теория агентов, к сожалению, пока полностью игнорирует достижения в области представления и обработки неполной, недопределенной и нечеткой информации. Однако, рано или поздно, к таким вариантам формализации придется обратиться и в теории агентов, если не будет предложено нечто более эффектное и эффективное. Практики, разрабатывающие прикладные многоагентные системы уже начали использовать подходы на основе нечетких множеств, не дожидаясь продвижения в теории в эту сторону, и в разделе 5 будет описана одна из архитектур многоагентной системы - “архитектура для распределенных медицинских приложений”, которая уже активно “эксплуатирует” идею нечеткости.

 

 

Архитектура агента

Примеры архитектур агентов

Далее при рассмотрении примеров архитектур многоагентных систем даются их авторские названия в соответствии с источниками на английском языке и в русском переводе.

WILL-архитектура

Эта архитектура интенсивно использует метафоры и понятия, традиционно применяемые к описанию человеческой интеллектуальной деятельности, что делает ее привлекательной и понятной, но от этого она не становится в чем-то принципиально новой по отношению к другим архитектурам, а, как представляется, только отдаляет возможность ее практической реализации. Однако авторы утверждают, что это наиболее простая архитектура автономного агента. Следует, однако, принимать во внимание, что это архитектура рассчитана на одного агента, который имеет одну цель и его функционирование направляется его собственными мотивами, которые автор называет интересами (“concerns”). Вопрос о методах кооперации и коммуникации агентов такой архитектуры авторы оставляют без внимания. Эта архитектура представлена на рис.13.

Для того, чтобы агент функционировал в мире рационально, ему необходимы различные функции, включая восприятие. Авторы предполагают, что агент имеет для каждой из этих функций отдельный модуль. В частности, они предполагают, что агент имеет Сенсорный блок, Планировщик и Исполнительное устройство в качестве базовых модулей, которые каким-то образом должны быть интегрированы.

 

 


Главной проблемой при этом является вопрос о том, как организовать совместную согласованную работу этих модулей, в частности, согласовать взаимодействие потоков информации и потоков управления. Чтобы решить проблему согласованного взаимодействия потоков информации, они предлагают применить нечто вроде схемы “бродкастинга”, когда соединены все входы и все выходы модулей между собой, так что любое сообщение, генерируемое тем или иным блоком становится доступным любому другому блоку. Все эти сообщения собираются в глобальном буфере, который называется Памятью. Все блоки могут читать информацию из Памяти, кроме Сенсоров, и все они могут писать информацию в Память, кроме Исполнительного устройства. Каждый модуль может просто брать информацию из памяти, когда ему это нужно.

Авторы этой архитектуры полагают, что цели системы могут меняться и генерироваться “изнутри” агента, будучи обусловленными некими фундаментальными целями агента, которые авторы называют “интересами“ (“concerns”).

 

 


Они определяются как некие предпочтения агента находиться в каких-то состояниях и каких-то состояний избегать. Когда агент получает информацию, которая в соответствии с его интересами отвечает предпочтительному состоянию (скажем, температура среды равна 20 градусов), то генерируется внутренний сигнал о том, что желательно, чтобы в этом состоянии среда оставалась и в будущем. Для каждого состояния внешней среды агент должен уметь оценивать меру его релевантности своим интересам (нечто вроде заряда статического электричества - в объяснении авторов). Это означает, что когда некий модуль обращается к памяти, он “видит“ тот ее фрагмент, который имеет “наибольший заряд“ и обрабатывает этот фрагмент. Наибольшее внимание модуля привлекается к тому событию, с которым агент не знает, что делать.

Авторы утверждают, что главное новшество этой архитектуры в наличии блока Память и использовании понятия Интересы, однако модуль Память по существу близок к тому, что мы привыкли называть доской объявлений, а понятие Интересы по содержанию близко к известному в теории агентов понятию Желания агента. С другой стороны, авторы не анализируют сложность проблемы организации согласованной работы различных модулей агента в этой архитектуре, которая по существу может быть реализована только при высоком уровне самоорганизации системы, алгоритмы которой могут оказаться самым тонким местом при попытке реализации.

InteRRaP-архитектура

 

Основная идея этой архитектуры [36] в том, чтобы представить агента как множество уровней, которые связаны через управляющую структуру и используют общую

 
 

 


Рис.14. InteRRaP-архитектура агента

 

базу знаний. Эта архитектура представлена на рис.14. Она состоит из пяти основных частей: интерфейса с внешним миром; компоненты, основанной на поведении; планирующей компоненты; компоненты, ответственной за кооперацию с другими агентами и базы знаний агента.

Интерфейс с внешним миром содержит возможности агента по восприятию событий внешнего мира, воздействия на него и средства коммуникации.

Компонента, ответственная за реактивное поведение, использует базовые возможности агента по реактивному поведению, а также частично использует знания агента процедурного характера. Она базируется на понятии “фрагмента поведения” как некоторой заготовки реакции агента на некоторые стандартные ситуации. Это позволяет агенту в стандартных ситуациях не обращаться к планированию на основе знаний и реализовывать значительную часть своего поведения рутинным образом с хорошей эффективностью. Из базы знаний ей доступны только знания нижнего уровня абстракции, где содержится информация о фрагментах поведения.

Компонента, ответственная за планирование, содержит механизм планирования, позволяющий строить локальные планы агента, т.е. планы, не связанные с кооперативным поведением. План представляется в виде графа, узлами которого могут быть либо конкретные наборы действий вплоть до элементарных шагов поведения, либо новые субпланы, подлежащие дальнейшей конкретизации. Таким образом, планирующая компонента активирует поведение (через нижележащую компоненту), направляемое целями. Она же участвует и в планировании, связанном с кооперативным поведением агентов. Эта компонента может использовать знания двух нижних уровней абстракции.

Компонента, ответственная за кооперацию агентов, участвует в конструировании планов совместного поведения агентов для достижения некоторых общих целей или выполнения своих обязательств перед другими агентами, а также выполнения соглашений. Этой компоненте доступны знания всех трех уровней абстракции.







Последнее изменение этой страницы: 2017-02-17; Нарушение авторского права страницы

infopedia.su Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав. Обратная связь - 18.232.51.69 (0.027 с.)