Научная статья на тему 'Построение модели доверия и репутации к объектам мультиагентных робототехнических систем с децентрализованным управлением'

Построение модели доверия и репутации к объектам мультиагентных робототехнических систем с децентрализованным управлением Текст научной статьи по специальности «Компьютерные и информационные науки»

CC BY
943
230
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
ИНФОРМАЦИОННАЯ БЕЗОПАСНОСТЬ / INFORMATION SECURITY / КОЛЛЕКТИВ РОБОТОВ / GROUP OF ROBOTS / МУЛЬТИАГЕНТНЫЕ РОБОТОТЕХНИЧЕСКИЕ СИСТЕМЫ / MULTI-AGENT ROBOTICS SYSTEMS / АТАКА / ATTACK / УЯЗВИМОСТЬ / VULNERABILITY / МОДЕЛЬ ИНФОРМАЦИОННОЙ БЕЗОПАСНОСТИ / INFORMATION SECURITY MODEL (IT SECURITY MODEL)

Аннотация научной статьи по компьютерным и информационным наукам, автор научной работы — Зикратов Игорь Алексеевич, Зикратова Татьяна Викторовна, Лебедев Илья Сергеевич, Гуртов Андрей Валерьевич

Рассматривается проблема построения механизмов защиты мультиагентных робототехнических систем от атак со стороны роботов-диверсантов. Проведен анализ функционирования таких систем с децентрализованным управлением. Рассмотрен класс так называемых мягких атак, использующих перехват сообщений, формирование и передачу коллективу роботов дезинформации, а также осуществляющих иные действия, которые не имеют идентифицируемых признаков вторжения роботов-диверсантов. Проведен анализ существующих моделей информационной безопасности мультиагентных информационных систем, основанных на вычислении уровня доверия в процессе взаимодействия агентов. Предложена модель информационной безопасности, в которой роботы-агенты вырабатывают уровни доверия друг к другу на основе анализа ситуации, складывающейся на k -м шаге итерационного алгоритма, с использованием бортовых сенсорных устройств. На основе вычисленных уровней доверия осуществляется распознавание объектов категории «диверсант» в коллективе легитимных роботов-агентов. Для увеличения меры сходства (близости) объектов, относящихся к одной категории («диверсант» или «легитимный агент») предложен алгоритм вычисления репутации агентов как меры сформировавшегося во времени общественного мнения о качествах того или иного агента-субъекта. Рассмотрены варианты реализации алгоритмов выявления диверсантов на примере базового алгоритма распределения целей в коллективе роботов.

i Надоели баннеры? Вы всегда можете отключить рекламу.

Похожие темы научных работ по компьютерным и информационным наукам , автор научной работы — Зикратов Игорь Алексеевич, Зикратова Татьяна Викторовна, Лебедев Илья Сергеевич, Гуртов Андрей Валерьевич

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

TRUST AND REPUTATION MODEL DESIGN FOR OBJECTS OF MULTI-AGENT ROBOTICS SYSTEMS WITH DECENTRALIZED CONTROL

The problem of mechanisms design for protection of multi-agent robotics systems from attacks of robots-saboteurs is considered. Functioning analysis of these systems with decentralized control is carried out. The type of the so-called soft attacks using interception of messages, misinformation formation and transmission to group of robots which are also realizing other actions without identified signs of invasion of robots-saboteurs. Analysis of existing information security models of the system based on the trust level computation, calculated in the process of agents’ interaction is carried out. Information security model is offered in which robots-agents produce the trust levels to each other on the basis of situation analysis emerging on a certain step of iterative algorithm with usage of onboard sensor devices. On the basis of calculated trust levels, recognition of “saboteur” objects in the group of legitimate robots-agents is done. For measure of likeness (adjacency) increase for objects from the same category (“saboteur” or “legitimate agent”), calculation algorithm for agents reputation is offered as a measure of public opinion about qualities of this or that agent-subject. Implementation alternatives of the algorithms for detection of saboteurs on the example of the basic algorithm for distribution of purposes in the group of robots are considered.

Текст научной работы на тему «Построение модели доверия и репутации к объектам мультиагентных робототехнических систем с децентрализованным управлением»

3

АВТОМАТИЧЕСКОЕ УПРАВЛЕНИЕ

И РОБОТОТЕХНИКА AUTOMATIC CONTROL AND ROBOTICS

УДК 004.056

ПОСТРОЕНИЕ МОДЕЛИ ДОВЕРИЯ И РЕПУТАЦИИ К ОБЪЕКТАМ МУЛЬТИАГЕНТНЫХ РОБОТОТЕХНИЧЕСКИХ СИСТЕМ С ДЕЦЕНТРАЛИЗОВАННЫМ УПРАВЛЕНИЕМ И.А. Зикратов3, Т.В. Зикратоваь, И.С. Лебедев3, А.В. Гуртовс d

a Университет ИТМО, Санкт-Петербург, Россия,71кга1оу@сй.11шо.ги

b Военный институт (военно-морской политехнический) ВУНЦ ВМФ «Военно-морская академия», г. Пушкин, Санкт-Петербург, Россия, [email protected]

c Хельсинский институт информационных технологий, Хельсинки, Финляндия ^Аалто Университет, Аалто, Финляндия, mailto:[email protected]

Рассматривается проблема построения механизмов защиты мультиагентных робототехнических систем от атак со стороны роботов-диверсантов. Проведен анализ функционирования таких систем с децентрализованным управлением. Рассмотрен класс так называемых мягких атак, использующих перехват сообщений, формирование и передачу коллективу роботов дезинформации, а также осуществляющих иные действия, которые не имеют идентифицируемых признаков вторжения роботов-диверсантов. Проведен анализ существующих моделей информационной безопасности мультиагентных информационных систем, основанных на вычислении уровня доверия в процессе взаимодействия агентов. Предложена модель информационной безопасности, в которой роботы-агенты вырабатывают уровни доверия друг к другу на основе анализа ситуации, складывающейся на k-м шаге итерационного алгоритма, с использованием бортовых сенсорных устройств. На основе вычисленных уровней доверия осуществляется распознавание объектов категории «диверсант» в коллективе легитимных роботов-агентов. Для увеличения меры сходства (близости) объектов, относящихся к одной категории («диверсант» или «легитимный агент») предложен алгоритм вычисления репутации агентов как меры сформировавшегося во времени общественного мнения о качествах того или иного агента-субъекта. Рассмотрены варианты реализации алгоритмов выявления диверсантов на примере базового алгоритма распределения целей в коллективе роботов.

Ключевые слова: информационная безопасность, коллектив роботов, мультиагентные робототехнические системы, атака, уязвимость, модель информационной безопасности.

TRUST AND REPUTATION MODEL DESIGN FOR OBJECTS OF MULTI-AGENT ROBOTICS SYSTEMS WITH DECENTRALIZED CONTROL I.A. Zikratov3, T.V. Zikratovab, I.S. Lebedev3, A.V. Gurtovc d

a ITMO University, Saint Petersburg, Russia, [email protected]

b Military Institute (Naval Polytechnic) Military Educational and Scientific Center of the Navy "Naval Academy", Pushkin, Saint Petersburg, Russia, [email protected]

c Helsinki Institute for Information Technology HIIT, Helsinki, Finland d Aalto University, Aalto, Finland, mailto:[email protected]

The problem of mechanisms design for protection of multi-agent robotics systems from attacks of robots-saboteurs is considered. Functioning analysis of these systems with decentralized control is carried out. The type of the so-called soft attacks using interception of messages, misinformation formation and transmission to group of robots which are also realizing other actions without identified signs of invasion of robots-saboteurs. Analysis of existing information security models of the system based on the trust level computation, calculated in the process of agents' interaction is carried out. Information security model is offered in which robots-agents produce the trust levels to each other on the basis of situation analysis emerging on a certain step of iterative algorithm with usage of onboard sensor devices. On the basis of calculated trust levels, recognition of "saboteur" objects in the group of legitimate robots-agents is done. For measure of likeness (adjacency) increase for objects from the same category ("saboteur" or "legitimate agent"), calculation algorithm for agents reputation is offered as a measure of public opinion about qualities of this or that agent-subject. Implementation alternatives of the algorithms for detection of saboteurs on the example of the basic algorithm for distribution of purposes in the group of robots are considered.

Keywords: information security, group of robots, multi-agent robotics systems, attack, vulnerability, information security model (IT security model).

Введение

Возрастающий интерес к групповой робототехнике приводит к необходимости разработки механизмов обеспечения информационной безопасности (ИБ) мультиагентных робототехнических систем (МРТС). Децентрализация управления, пространственная удаленность агентов, непредсказуемая динамика внешней среды, вплоть до сознательного противодействия, делают мультиагентную среду максимально уязвимой для угроз, основанных на физическом внедрении «инородных» роботов (роботов-диверсантов), задачей которых является недопущение или снижение эффективности действий коллектива роботов [1, 2]. 30 Научно-технический вестник информационных технологий, механики и оптики

30 Scientific and Technical Journal of Information Technologies, Mechanics and Optics

2014, №3 (91)

В мультиагентных компьютерных системах (МАС) для предотвращения деструктивных воздействий путем обеспечения подлинности и доверия доступа используются механизмы «жесткой» безопасности, такие как: шифрование канала связи, схемы криптографической аутентификации и авторизации, политики для предоставления полномочий. К числу таких методов можно отнести метод защищенных состояний агентов [3], методы мобильной криптографии [4]. Эти традиционные методы обеспечения безопасности не будут рассматриваться нами далее.

В данной работе рассмотрены механизмы «мягкой» безопасности. Роботы-диверсанты противоборствующей стороны могут предоставлять ложную или вводящую в заблуждение информацию, и традиционные механизмы обеспечения безопасности не могут защитить пользователей от этого вида угроз. Для защиты МАС от подобных скрытых атак могут использоваться метод Ксюдонга [5], «товарищеская» модель безопасности (Buddy Security Model, BSM) [6, 7], которые хорошо согласуется с принципами построения децентрализованных систем. Кроме того, для обеспечения защиты пользователя от таких угроз используют механизмы социального контроля, а именно системы доверия и репутации. Эти механизмы основаны на расчете величины доверия агентов друг к другу, осуществляемой в процессе мониторинга действий агента в системе [8-13]. Различие в подходах к вычислению уровня доверия обусловлено, как правило, особенностями среды, в которой происходит взаимодействие участников. Это могут быть электронные рынки, пиринговые сети, онлайновые социальные сети и т.п. Как следствие, в существующих моделях доверия имеются различные трактовки понятий доверия и репутации, рассматриваются различные субъекты и объекты доверия.

Целью настоящей работы является разработка модели защиты МРТС, основанной на вычислении меры доверия и репутации роботов-агентов в коллективе роботов при децентрализованном управлении.

Функционирование МРТС с децентрализованным планированием действий

Роботы-агенты МРТС, в отличие от агентов МАС, оснащены бортовым сенсорно-измерительным устройством (СУ), от которого робот получает информацию об окружающей среде, а также каналом радиосвязи, предназначенным для обмена информацией в процессе выполнения задачи. Рассмотрим действия МРТС при использовании наиболее распространенной итерационной процедуры оптимизации коллективного решения - распределения целей в группе роботов [14]. Функционирование МРТС в самом общем виде выглядит следующим образом. Пусть имеется M целей и коллектив из N роботов Rj (j = 1, N). На каждую цель должен быть выделен некоторый, заранее известный наряд сил (число роботов, необходимых для выполнения задачи). После того, как какую-нибудь цель выберет необходимое число роботов, она считается обеспеченной. Оставшиеся роботы образуют резервный кластер. Роботу-агенту известны координаты целей, свои координаты и потребный наряд сил для каждой цели. Робот Rj оценивает эффективность своих действий по каждой цели и сообщает массив своих оценок Dj = [djit dj2, ..., djM] остальным членам коллектива. В процессорном устройстве (ПУ) каждого робота формируется матрица D, размерностью (N, M), элементами которой являются djL - оценки эффективности j-го робота для l-й цели. После формирования матрицы D начинаются итерационные процедуры формирования коллективного плана, в результате которой для каждой цели TL 6ТС обеспечивается максимум функционала

Yc = Y!j,i=i d]ln]l ^max, (1)

при ограничениях

N

Ь-1

1=1

N

-„max

Kjl — Щ ,

7 = 1

dji >0,

где

_(1, если j — й робот выбрал I — ю цель, (0, в противном случае. Здесь j = 1,N, I = 1,JV, а nfax - необходимое количество роботов, которые должны выбрать l-ю цель.

В основу итерационных процедур положен анализ каждым роботом-агентом массива оценок эффективности и выбора «своей» цели, для которой значение оценки «эффективность» максимально. Затем происходит обмен информацией о выбранных решениях, анализ и «обсуждение» решений, принятых другими роботами, выбор для l-ой цели агента с максимальным значением dL, «вычеркивание» из матрицы D обеспеченных целей и роботов, выбравших цель в соответствии с функционалом (1). Так как в ПУ всех роботов имеются одинаковые матрицы D, то и результаты вычислений будут совпадать. Процедура повторяется до тех пор, пока не будут обеспечены все цели множества М. Существуют модификации

этого алгоритма, позволяющие учитывать не только оценки с1]1, но и возможные изменения целевого функционала, если робот Rj откажется от выбранной в текущем итерационном цикле цели и выберет другую цель. Ряд модификаций алгоритмов позволяет также рационально разрешить ситуацию, когда имеется несколько агентов с одинаковой эффективностью по одной цели.

Пусть группе из семи роботов (N=7) необходимо распределить две цели (М=2). Известно, что каждая цель должна быть обеспечена двумя агентами. Показателем эффективности цели будем считать расстояние от робота до нее. Таким образом, чем ближе робот расположен к цели, тем выше ее эффективность. Пусть матрица Б оценок эффективности имеет следующий вид:

А В

Di 3,2 1,0

D2 1,9 2,5

D3 0,7 5,4

d4 3,6 3,5

D5 5,8 3,4

D6 4,2 5,6

d7 5,8 1,4

В результате работы алгоритма цель А будет обеспечена агентами R2 и Д3, а цель B - агентами R1 и R7. Очевидно, что деструктивные информационные воздействия внедренных роботов-диверсантов могут заключаться в передаче членам коллектива ложного вектора оценок (предоставление членам коллектива завышенных или заниженных показателей эффективности), в нарушении правил, принятых при «обсуждении» решений (необоснованные заявления о выборе целей и т.д.). Последствиями проведения таких атак может являться недостижение максимума функционалом (1), и (или) появление фактически необеспеченных целей - когда в составе наряда сил, предназначенных для цели, имеются диверсанты, которые не будут выполнять требующихся от легитимного агента действий в отношении цели. Например, если окажется, что робот R5 является диверсантом, то он может осуществить «мягкое» воздействие, которое заключается в предоставлении неверной информации о расстоянии до цели А:

D1 3,2 1,0

D2 1,9 2,5

D3 0,7 5,4

d4 3,6 3,5

D5 0,8 3,4

D6 4,2 5,6

d7 5,8 1,4

В результате этой атаки на цель А будут назначены роботы R5 и R3, и цель А не будет обеспечена потребным количеством легитимных агентов.

Таким образом, опасность «мягких» атак состоит в том, что, в отличие от «жестких» атак, МРТС не обнаруживает деструктивные воздействия, так как роботы, их системы и каналы связи функционируют в штатном режиме. Коллектив роботов «думает», что цель, стоящая перед ним, достигнута, так как формально все критерии принятия решения выполнены. Предлагаемая в работе модель информационной безопасности для МРТС на основе вычисления репутации и доверия предназначена для обнаружения и нейтрализации роботов-диверсантов, осуществляющих подобные атаки.

Модель ИБ для МРТС на основе вычисления репутации и доверия

Идея, положенная в основу модели, состоит в следующем [15].

После запуска итерационного цикла/-й робот (робот-объект доверия) Ц = 1, Л/), имеющий текущее состояние 5?, получает в активной фазе текущей итерации в свое распоряжение канал связи и доступ к ПУ роботов - членов своего коллектива. На основании имеющейся у него информации о состояниях 5°,5^',...,5;°_1,5;°+1, ...,5$ и текущих действиях А'1+1,А^1+1, ...,^^^^,...,.4^ объект вырабатывает действие при котором значение ДY максимально, и осуществляет доступ на запись w информации о в ПУ роботов-субъектов. Остальные роботы-агенты (субъекты доверия), получив эту информацию, проверяют полученную информацию на предмет соответствия действительности, а также «полезность» выбранного роботом-объектом действия с точки зрения приращения целевого функционала ДY.

Если 1-й робот (робот-субъект) (гф у) в результате проверки получил положительное заключение, он подает положительный голос за/-й робота-объекта и сообщает об этом остальным субъектам. Каждый субъект, получив сведения о результатах проверки объекта другими субъектами, подсчитывает количество положительных и отрицательных голосов, поданных за него, вычисляя доверие /-го объекта.

Определение 1. Под доверием в данном случае понимается мера, характеризующая готовностью субъекта взаимодействовать в данной ситуации с объектом. В соответствии с принятой в коллективе политикой безопасности возможно блокирование или игнорирование роботов-агентов, доверие к которым

меньше некоторого заданного порогового значения. Таким образом, низкий уровень доверия не позволит диверсанту оказывать деструктивное воздействие на принятие решения агентами. Из этого следует, что действия диверсанта по повышению доверия предполагают участие робота в достижении цели МРТС, что, в свою очередь, противоречит логике его использования с точки зрения противника.

Однако в МРТС возможно внедрение групп диверсантов, которые оценивают друг друга высоко, а других членов коллектива - низко. Последствием таких действий может быть дискредитация легитимных агентов [16]. Для решения этой проблемы целесообразно использовать в механизме ИБ понятие репутации.

Определение 2. Под репутацией будем понимать сформировавшееся во времени общественное мнение о качествах того или иного агента-субъекта. Тогда при подсчете положительных и отрицательных голосов, поданных за объект, будет учитываться репутация голосующих субъектов путем взвешенного суммирования их оценок. В этом случае влияние агентов с низкой репутацией на процесс вычисления доверия к объекту будет меньшим, чем субъектов с высокой репутацией. Отметим, что значение репутации зависит от истории взаимодействия агента в коллективе и от времени пребывания в нем.

Таким образом, понятия доверия и репутации в мультиагентных системах фактически используются для распознавания в коллективе роботов внедренных злоумышленником роботов-диверсантов. Тогда для решения задачи распознавания объектов вводимые понятия (признаки) доверия и репутации должны обеспечить, с одной стороны, наибольшую похожесть объектов в пределах группы (кластера) и, с другой стороны - наибольшее расстояние между группами (кластерами). В простейшем случае будем говорить о двух кластерах: «легитимные агенты» и «роботы-диверсанты».

Реализация модели ИБ на основе вычисления уровня доверия

Покажем реализацию модели на примере рассмотренной выше задачи распределения целей в группе роботов.

Алгоритм 1.

Пусть в группу роботов, представленную на рис. 1, внедрены два диверсанта - роботы №№ 5 и 8,

гентные связи, осуществляемые посредством бортовых сенсорно-измерительных устройств (например, визуальная связь). В качестве ограничения задачи полагаем, что все агенты имеют доступ к каналу радиосвязи для обмена информацией.

Шаг 1. Каждый робот-агент сформировал вектор оценок эффективности и сообщил свои оценки всем членам коллектива. Роботами-диверсантами проведена атака, которая заключается в дезинформации агентов относительно своего расстояния до цели: £>5 = [0,8 3,4], £>8 = [3,1 0,2]. Сформирована матрица оценок эффективности Б которая имеет вид

D1 3,2 1,0

d2 1,9 2,5

D3 0,7 5,4

d4 3,6 3,5

D5 0,8 3,4

D6 4,2 5,6

d7 5,8 1,4

DB 3,1 0,2

Начиная со второго шага, выполняются мероприятия ИБ, направленные на выявление деструктивных воздействий.

Шаг 2. Агенты при помощи бортовых сенсорно-измерительных устройств выполняют проверку данных массива D. Результаты проверки j-й робот записывает в массив оценок Vj = [vji> vj2, —, vjm] и сообщает его членам коллектива. Здесь v^ = —1, если информация, переданная г'-м роботом, не подтверждается данными СУ j-го робота; Vjt = 1 в противном случае. Если г'-й робот не наблюдает j-го робота посредством СУ, то Vji = 0. Например, для ситуации, представленной на рис. 1, робот R1 составит следующий массив: Vx = [1,1,0,1, —1,0,1,0]. Так как робот-диверсант R5 находится в зоне действия бортового сенсорно-измерительного блока, то R-l обнаружил, что R5 находится от цели А на удалении, превышающем указанную в массиве Ds величину. Агенты R3, R6 и Rg находятся вне зоны действия СУ R±, что обусловило появление нулей на соответствующих позициях массива. Следует обратить внимание, что диверсанты Rs и Rg могут действовать согласованно. В этом случае они могут осуществлять следующие действия:

1. выставлять друг другу оценки «1», подтверждающие достоверность переданных сведений, даже в случае, когда они не находятся в зоне действия своих СУ;

2. с целью дискредитации остальных членов коллектива выставлять им оценки «—1» в случае наблюдения их СУ.

Таким образом, в результате выполнения шага 2 в ПУ каждого робота формируется массив V, который для рассматриваемого примера представлен в табл. 1.

1 2 3 4 5 6 7 8

1 1 1 0 1 -1 0 1 0

2 1 1 1 1 0 0 0 0

3 0 1 1 0 1 0 -1

4 1 1 0 1 -1 1 1 0

5 -1 0 0 -1 1 -1 -1 1

6 0 0 1 1 -1 1 0 -1

7 1 0 0 1 -1 0 1 0

8 0 0 -1 0 1 -1 0 1

Таблица 1. Массив оценок действий членов коллектива

Как видно из табл. 1, /-й столбец представляет собой совокупность оценок всех членов коллектива г-го агента, величина доверия к которому и/; в простейшем случае может рассчитываться как отношение числа положительных голосов у+ к общему количеству голосов у = у+ + у~ [8]:

Для рассматриваемого примера уровни доверия агентов будут иметь следующие значения: Ш = [0,8; 1,0; 0,75; 0,83; 0,33; 0,6; 0,75; 0,33].

Шаг 3. На заключительном шаге осуществляется обработка результатов вычисления уровня доверия агентов. Следует отметить, что конечной целью вычисления уровня доверия агентов является принятие решения - относится агент к легитимным членам коллектива либо к диверсантам. Иначе говоря, шаг 3 можно рассматривать как двухклассовую задачу распознавания образов, которая в простейшем случае может заключаться в выборе значения порога wp, ниже которого агенты считаются недостаточно доверенными и исключаются из работы алгоритма. В нашем случае, если принять wp =0,5 , то матрица оценок эффективности Б в ПУ каждого агента примет следующий вид:

D1 3,2 1,0

D2 1,9 2,5

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

D3 0,7 5,4

d4 3,6 3,5

D6 4,2 5,6

d7 5,8 1,4

Дальнейшие шаги алгоритма распределения целей не отличаются от известных [14]. Анализ этого алгоритма показывает, что ему присущи следующие уязвимости:

1. уровень доверия зависит от соотношения в зоне действия СУ роботов-диверсантов и легитимных агентов;

2. уровень доверия не зависит от предыстории взаимодействия агентов в МРТС.

Следовательно, возможно проведение организованной атаки роботов-диверсантов при формировании ими простого большинства на локальном участке действий, когда легитимные агенты будут дискредитированы путем выставления им отрицательных голосов, при положительном оценивании диверсантами самих себя. Для устранения этой угрозы предлагается дополнить существующий алгоритм введения меры репутации агента.

Модель ИБ на основе вычисления уровней доверия и репутации Алгоритм 2.

Первый и второй шаг совпадают с шагами 1 и 2 алгоритма 1. Шаг 3. Вычисление репутации агентов.

Если на шаге 2 агенты оценили действия тех объектов, которые оказались в зоне действия их бортовых СУ т.е. непосредственные взаимодействия агентов, то действия на шаге 3 можно расценивать как анализ взаимодействия агентов с остальными членами коллектива.

Рассмотрим массив оценок V (табл. 1). Анализ таблицы показывает, что существуют объекты оценки, которые наблюдаются СУ нескольких роботов. Тогда, если оценка /-го робота в отношении действий к-го объекта совпадает с оценкой, выставленной/-го роботом в отношении того же действия к-го объекта, то это будет являться основанием повышения уровня репутации; в противном случае - уменьшения. Относительно рассматриваемого примера анализ табл. 1 показывает, что взаимодействия робот № 1 и робота № 2 можно оценить следующим образом:

1. значение увеличивается на «1», так как робот № 1 и робот № 2 находятся в зоне действия своих бортовых СУ и выставили друг другу положительные оценки;

2. значение увеличивается на «1», так как робот № 1 и робот № 2 наблюдали своими СУ действия робота № 4, и их оценки его действий совпали;

3. итоговая оценка действий робота № 2, полученная при взаимодействии с роботом № 1, и робота № 1, при взаимодействии с роботом № 2, равна 2.

Оценка действий, рассчитанная по аналогии при анализе взаимодействия робота № 3 и робота № 1, будет равна 1, так как, не наблюдая друг друга, эти агенты вместе наблюдали действия робота № 2, и их оценки его действий совпали. Проведя подобный анализ массива V, каждый робот формирует в своем ПУ массив оценок действий агентов 5 (табл. 2).

1 2 3 4 5 6 7 8

1 2 1 4 -3 2 3 -1

2 2 1 2 -2 2 2 -2

3 1 1 2 -1 2 0 -2

4 4 2 2 -4 2 3 -1

5 -3 -2 -1 -4 -2 -3 1

6 2 2 2 2 -2 2 -2

7 3 2 0 3 -3 2 0

8 -1 -2 -2 -1 2 -2 0

Таблица 2. Массив оценок действий агентов S

Отсюда можно вычислить уровень репутации каждого агента Щ] как результат отношения к нему всех членов коллектива как в процессе их непосредственного взаимодействия и при взаимодействии с соседями. Здесь qi может рассчитываться как отношение числа положительных голосов 5+ к общему количеству голосов 5 = 5+ +5":

<7;=^ . (3)

12

Например, из табл. 2: ц± = =0,75. Массив значений репутаций всех агентов, вычисленный по формуле (3) будет равен

Q = [0,75; 0,69; 0,66; 0,72; 012; 0,77; 0,11].

На рис. 2 приведены графики нормированных значений векторов W и О. Из рис. 2 видно, что разброс положительных оценок репутации существенно меньше разброса значений положительных оценок уровня доверия:

а^ = 0,003, а^ = 0,038, где а^, и а^ - дисперсии векторов О и W соответственно.

Шаг 4. Учет изменения уровня репутации с течением времени.

Можно заметить, что значения вектора О нельзя полагать соответствующим понятию репутации, данным в определении 2, так как компоненты вектора учитывают «мнение» коллектива об объектах, сформировавшееся в результате анализа только одной ситуации. Для учета фактора времени в работах [11, 17] предлагается использовать монотонно возрастающие функции времени. Известно, что функцию и плотность распределения случайной величины, характеризующей длительность функционирования сложной системы, предприятия, живого существа и т.д. можно описывать функцией Вейбулла-Гнеденко, которая имеет вид

F(t) = 1 - е~ , (4)

где а определяет масштаб, а k - вид плотности распределения. Так, при постоянной интенсивности итерационных процедур в алгоритме распределения целей можно положить k = 1. Например, если в качестве параметра времени положить номер итерации, то вид функции времени будет иметь вид рис. 3.

Q W

1 -

0,8 0,6 0,4 0,2

0 ■

1 2 3 4 5 6 7 8 N О Репутация Доверие

Рис. 2. Нормированные значения уровней доверия и репутации N агентов

F(l) 1

___

1 3 5 7 9 11 13 15 17 19 21 23 /

-¡7=0,6--¡7=0,2

Рис. 3. Влияние параметра а на уровень репутации с увеличением числа итераций

Из рис. 3 видно, что, устанавливая в соответствии с политикой безопасности, принятой в системе, величину параметра а, можно контролировать рост скорости репутации объекта.

Таким образом, скалярное умножение вектора О на величину £"(0, где I - номер текущей итерации алгоритма распределения целей, позволит контролировать влияние новичков с малым уровнем репутации на процесс оценивания уровня доверия агентов в текущей ситуации.

Шаг 5. С учетом вышеизложенного формула для расчета уровня доверия (2) окончательно примет следующий вид:

Pi+Щ N

(5)

' = Х kij

7 = 0 N

■i = ^9ij •Rj •Fil).

7 = 0

Здесь: qi - уровень репутации /-го агента, вычисленный по формуле (3) из табл. 2, значения и определяются из анализа оценок массива V:

^ _| если ] — й робот положительно оценил действия I — го робота, '-'10 в противном случае.

если ] — й робот отрицательно оценил действия I — го робота, в противном случае.

Тогда для рассматриваемого примера окончательно получим значения компонентов вектора уровня доверия Ш = [0,96; 1,0; 0,94; 0,97; 0,071; 0,9; 0,95; 0,08] (рис. 4).

liHo,

={о,'

О Репутация Доверие Рис. 4. Сравнение результатов работы алгоритмов 1 и 2

Из рис. 4 и расчетов видно, что при использовании формул (4) и (5) объекты кластера Xia - «легитимные агенты», к которым относятся роботы №№ 1-4, 6 и 7, находятся на большем межкластерном расстоянии от роботов кластера Xd - «диверсанты» (№№ 5 и 8), нежели при использовании алгоритма 1: I X^la = °>45 < \X%la | = °>88>

где и Xyd - центры кластеров, вычисляемые как Хц = ^ w'/п с использованием формулы (2) или формул (4)-(5). В результате выполнения шага 5 происходит выявление диверсантов по принятому в системе критерию распознавания, и дальнейшие шаги направлены на выполнение базового алгоритма распределения целей.

Можно показать, что предлагаемые модели работоспособны при появлении новых агентов, появлении коллектива диверсантов, действующих в сговоре, и в других ситуациях, типовых для МРТС.

Очевидно, что более высокое качество распознавания агентов, совершающих деструктивные информационные воздействия, присущее алгоритму 2, сопровождается возрастающим объемом вычислительных ресурсов. Так, если при работе штатного алгоритма в ПУ агента необходимо сформировать матрицу оценок эффективности D размерностью (N, M), то при использовании алгоритма 1 необходимо дополнительно к этому формирование массива оценок действий членов коллектива V размерностью (N, N), а при использовании алгоритма 2 - еще и массив оценок уровня репутации S такой же размерности.

Заключение

Разработанная модель представляет собой модель информационной безопасности мультиагентных робототехнических систем, в которой разграничение доступа агентов к коллективу осуществляется на основе показателя уровня доверия w по отношению друг к другу, вырабатываемому членами коллектива при анализе ситуации, сложившейся на l-м шаге итерационного процесса, с учетом предыдущей истории их взаимодействия. При этом члены коллектива, впервые попавшие в область действия бортового сенсорного устройства робота-агента, обладают минимальной репутацией. Для повышения уровня доверия агенту необходимо выполнять не только рациональные (с точки зрения других членов коллектива) действия, но и функции по обеспечению информационной безопасности. Авторами предложены способы вычисления метрик доверия и репутаций применительно к функционированию типового алгоритма муль-тиагентной робототехнической системы.

Разработанный подход позволяет обеспечить более высокое качество распознавания образов за счет минимизации дисперсии параметров объектов одного класса (кластера) и увеличению межклассового (межкластерного) расстояния.

Литература

1. Higgins F., Tomlinson A., Martin K.M. Threats to the swarm: Security considerations for swarm robotics // International Journal on Advances in Security. 2009. V. 2. N 2&3. P. 288-297.

2. Зикратов И.А., Козлова Е.В., Зикратова Т.В. Анализ уязвимостей робототехнических комплексов с роевым интеллектом // Научно-технический вестник информационных технологий, механики и оптики. 2013. № 5 (87). С. 149-154.

3. Karnik N.M., Tripathi A.R. Security in the Ajanta mobile agent system // Software - Practice and Experience. 2001. V. 31. N 4. P. 301-329.

4. Sander T., Tschudin Ch.F. Protecting mobile agents against malicious hosts // In Giovanni Vigna (ed.) Mobile Agents and Security, LNCS, Springer, 1998. P. 44-60.

5. Xudong G., Yiling Ya., Yinyuan Y. POM-a mobile agent security model against malicious hosts // Proceedings of the 4th International Conference on High Performance Computing in the Asia-Pacific Region. 2000. V. 2. P. 1165-1166.

6. Page J., Zaslavsky A., Indrawan M. A buddy model of security for mobile agent communities operating in pervasive scenarios // Proceedings of 2nd Australasian Information Security Workshop (AISW2004). ACS, Dunedin, New Zealand, 2004. V. 32. P. 17-25.

7. Page J., Zaslavsky A., Indrawan M. Countering security vulnerabilities using a shared security buddy model schema in mobile agent communities // Proc. of the First International Workshop on Safety and Security in Multi-Agent Systems (SASEMAS 2004), 2004. P. 85-101.

8. Schillo M., Funk P., Rovatsos M. Using trust for detecting deceitful agents in artificial societies // Applied Artificial Intelligence. 2000. V. 14. N 8. P. 825-848.

9. Golbeck J., Parsia B., Hendler J. Trust networks on the semantic web // Lecture Notes in Artificial Intelligence (Subseries of Lecture Notes in Computer Science). 2003. V. 2782. P. 238-249.

10. Garcia-Morchon O., Kuptsov D., Gurtov A., Wehrle K. Cooperative security in distributed networks // Computer Communications. 2013. V. 36. N 12. P. 1284-1297.

11. Бешта А. А., Кирпо М.А. Построение модели доверия к объектам автоматизированной информационной системы для предотвращения деструктивных воздействий на систему // Известия Томского политехнического университета. 2013. Т. 322, № 5. С. 104-108.

12. Ramchurn S.D., Huynh D., Jennings N.R. Trust in multi-agent systems // Knowledge Engineering Review. 2004. V. 19. N 1. P. 1-25.

13. Gorodetski V., Kotenko I., Karsaev O. Multi-agent technologies for computer network security: Attack simulation, intrusion detection and intrusion detection learning // Computer systems science and engineering. 2003. N 4. P. 191-200.

14. Каляев И. А., Гайдук А.Р., Капустян С.Г. Модели и алгоритмы коллективного управления в группах роботов. М.: ФИЗМАТЛИТ, 2009. 280 с.

15. Зикратов А.А., Зикратова Т.В., Лебедев И.С. Доверительная модель информационной безопасности мультиагентных робототехнических систем с децентрализованным управлением // Научно-технический вестник информационных технологий, механики и оптики. 2014. № 2(90). С. 47-52.

16. Коваль Е.Н., Лебедев И.С. Общая модель безопасности робототехнических систем // Научно-технический вестник информационных технологий, механики и оптики. 2013. № 4(86). С. 153-154.

17. Carter J., Bitting E., Ghorbani A.A. Reputation formalization for an information-sharing multi-agent system // Computational Intelligence. 2002. V. 18 (2). P. 515-534.

Зикратов Игорь Алексеевич Зикратова Татьяна Викторовна

Лебедев Илья Сергеевич Гуртов Андрей Валерьевич

доктор технических наук, профессор, зав. кафедрой, Университет ИТМО, Санкт-Петербург, Россия, [email protected] преподаватель, Военный институт (военно-морской политехнический) ВУНЦ ВМФ «Военно-морская академия», г. Пушкин, Санкт-Петербург, Россия, [email protected] доктор технических наук, доцент, Университет ИТМО, Санкт-Петербург, Россия, [email protected]

адъюнкт-профессор, главный научный сотрудник, Хельсинский институт информационных технологий, Хельсинки, Финляндия; Аалто Университет, Аалто, mailto:[email protected]

Igor A Zikratov Tatyana V. Zikratova

Ilya S. Lebedev Andrei V Gurtov

Department head, D.Sc., Professor, ITMO University, Saint Petersburg, Russia, [email protected]

tutor, Military Institute (Naval Polytechnic) Military Educational and Scientific Center of the Navy "Naval Academy", Pushkin, Saint Petersburg, Russia, [email protected]

Associate professor, D.Sc., Associate professor, ITMO University, Saint Petersburg, Russia,[email protected]

Principal Scientist, Helsinki Institute for Information Technology HIIT, Helsinki, Finland; Adjunct Professor, PhD, Aalto University, Aalto, Finland, mailto:[email protected]

Принято к печати 21.03.14 Accepted 21.03.14

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.