Научная статья на тему 'Математические модели оценки безопасности роботов для человека'

Математические модели оценки безопасности роботов для человека Текст научной статьи по специальности «Компьютерные и информационные науки»

CC BY
56
13
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
РОБОТ / ЗАКОНЫ РОБОТОТЕХНИКИ / ПАМЯТЬ РОБОТА / БЕЗОПАСНОСТЬ / ROBOT / LAWS OF ROBOTICS / THE MEMORY OF THE ROBOT / SAFETY

Аннотация научной статьи по компьютерным и информационным наукам, автор научной работы — Пенский О. Г.

Описывается актуальность рассмотрения вопроса безопасности интеллектуальных машин для человека. Приводятся математические модели и алгоритмы оценки безопасности робо -тов. Приводится теорема об опасности роботов с абсолютной памятью для человека.

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

Mathematical models for the safety assessment of robots to humans

The author describes the relevance of safety review of intelligent machines to humans. The paper presents mathematical models and algorithms to assess security robots and a theorem about the dangers of robots with absolute memory in humans.

Текст научной работы на тему «Математические модели оценки безопасности роботов для человека»

2013

ВЕСТНИК ПЕРМСКОГО УНИВЕРСИТЕТА

Математика. Механика. Информатика Вып. 1(13)

УДК 519.86; 519.87

Математические модели оценки безопасности роботов для человека

О. Г. Пенский

Пермский государственный национальный исследовательский университет Россия, 614990, Пермь, ул. Букирева, 15 [email protected]; (342) 2 396 309

Описывается актуальность рассмотрения вопроса безопасности интеллектуальных машин для человека. Приводятся математические модели и алгоритмы оценки безопасности робо -тов. Приводится теорема об опасности роботов с абсолютной памятью для человека.

Ключевые слова: робот; законы робототехники; память робота; безопасность.

Введение

В настоящее время в связи с интенсивным развитием науки этические проблемы новых знаний приобретают все более острый характер.

Примером этого может служить активно развивающаяся робототехника, на основе которой человечество стремится возложить на машины все больше и больше своих интеллектуальных функций. В Соединенных Штатах Америки уже выработано новое понятие Е-существа, являющегося электронной копией человека [1]. В Канаде, Японии, Швеции, Южной Корее активно ведутся разработки по созданию человекоподобных эмоциональных роботов, которые пока не принимают самостоятельных решений, но реагируют на внешние раздражители-стимулы [2].

Однако в настоящее время в развитых государствах ведутся исследования в оборонной промышленности по созданию интеллектуальных роботов, способных в боевых действиях принимать самостоятельные решения. Так, в Великобритании уже разработан боевой беспилотный бомбардировщик под названием "Громовержец". Уникальность "Громовержца" состоит в том, что он является практически полностью автономным беспилотником: аппарат может самостоятельно маневрировать и выполнять другие действия, не

требуя постоянного контроля со стороны оператора. К человеку "Громовержец" обращается только за разрешением - уничтожать ли выбранную цель [3].

Очевидно, что решение интеллектуального вопроса об уничтожении цели человек может легко передать бри-танскому бомбардировщику, выполнив несложные изменения в компьютерной программе, описывающей действия "Громовержца" в боевых условиях.

Впервые решение проблемы безопасности роботов для человека пред-ложил американский писатель-фантаст Айзек Азимов. Он сформулировал три закона робототехники, обусловливающие эту безопасность:

1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.

2. Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.

3. Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому и Второму законам.

| Пенский О. Г., 2013

О. Г. Пенский

1. Алгоритм оценки эмоциональной безопасности робота

В настоящем разделе статьи впервые рассматриваются математические модели, посвященные реализации законов робототехники, а именно той их части, где говорится: "Робот не может причинить вред человеку...''.

В работах [4, 5] введены понятия эмоций робота и его воспитания. Будем предполагать, что робот постоянно переживает эмоции.

В качестве цели А воспитания робота [2], обеспечивающего безопасность человека от действий интеллектуальной машины, примем положительное число, значение которого заведомо больше воспитания робота, удовлетворяющего алгоритму Д.Н.Узнадзе для большого количества воспитательных уровней [6] робота.

В работе [2] рассматриваются математические модели, соответствующие случаям, когда сюжеты-стимулы порождают эмоции роботов, поэтому для оценки безопасности роботов для человека важно научиться классифицировать типы сюжетов и эмоции робота, отвечающие за угрозы человеку. Мы будем предполагать, что роботы умеют это делать, и опишем правила реакции робота на сюжеты-угрозы человеку, порождающие соответствующие отрицательные эмоции робота.

Будем предполагать, что робот может самостоятельно оценить, приближает ли его вырабатываемая им эмоция к цели А. В работе [7] приведена математическая модель, позволяющая предписывать знак вырабатываемой роботом эмоции. Общий принцип предписывания знака эмоции следующий: если эмоция приближает робота к поставленной цели А, то эмоция робота положительна, если эмоция удаляет робота от цели, то эмоция робота отрицательна.

Пусть для безопасности человека при отрицательном значении эмоции робот не выполняет действия, порождаемого этой эмоцией. Сказанное можно описать следующими математическими соотношениями.

Если

(1)

В неравенстве (1) использованы следующие обозначения [6]:

у<‘\0 =

,_1 Л Л

- итоговая эмоция робота, порожденная сю-жетом-угрозой, I - порядковый номер эмоционального такта, к - порядковый номер воспитательного уровня, ( - текущее время

воспитания робота, М[к](?) - эталонная эмоция воспитательного уровня к, К]*} (0 -воспитание робота на воспитательном уровне к, соответствующее такту г-1,

д* (0 = )м[к] (т)^ + в)к] (О*!*1 (0,

■ ' « ■ ’

- время конца такта г воспитательного уровня к, ^ - время начала такта г воспитательного уровня к, t 6 К-*;лт|,“'(о -коэффициент эмоциональной памяти робота для такта г воспитательного уровня к.

2. Память робота в аспекте безопасности для человека

Опишем условия, при которых робот опасен для человека.

В работе [2] предложена математическая модель-гипотеза, описывающая силу воли робота и человека.

Силой воли при достижении цели А названа функция

jâ(r)dT

то робот никаких действий, влекущих вред человеку, не выполняет.

r(0 = ^—t-------,

где ô(t) - величина достижения цели ко времени t, которая удовлетворяет соотно-

*,т(0 ......................

шению oit) —----------.

А

Предполагая истинность положения психологии о том, что существо с более сильной волей / при большем значении модуля функции 7(0 / может психологически подавить существо со слабой силой воли / при меньшем значении модуля функции

Математические оценки безопасности роботов.

с абсолютной памятью опасен для человека. Эту теорему можно перефразировать так

"Помнящая все и не способная забывать прошлое ннтеллек-туалъная машина опасна для человека".

Заключение

Таким образом, в предлагаемой работе описаны математические модели психоло-ги-ческого поведения роботов и алгоритм, обусловливающие безопасность или опасность робота для человека.

Список литературы

1. Болонкин А.А. Постчеловеческая цивилизация. 1ЖЬ: http://n-t.ru/tp/ns/pcc.htm

(дата обращения: 15.01.2013).

2. Пен скип О. Г.. Черников КВ. Основы математической теории эмоциональных роботов: моногр. / Перм, гос. ун-т. Пермь, 2010.256 с. 1.111.:

http ://top .rbc.ru/society/14/01/2013/840159. shtml (дата обращения: 12.01.2013).

3. Пенстш О.Г. Математические модели эмоционального воспитания // Вестник Пермского университета. Сер.: Математика. Механика. Информатика. 2009. №7(33). С. 53-56.

4. Черников КВ., Пенский О.Г. Обобщение модели эмоционального воспитания //Вестник Пермского университета. Сер.: Математика. Механика. Информатика. 2010. № 2(2). С. 55-57.

5. Пенский О.Г., Черников КВ. Гипотеза о психологических установках в аспекте математического моделирования процес-сса воспитания эмоциональных роботов // Фундаментальные исследования. 2012. №

3. С.129-132.

6. Пенский О.Г., Черников КВ. Модели амбивалентных эмоций роботов // Вестник Пермского университета. Сер.: Математика. Механика. Информатика. 2010. №3(3). С. 67-68.

Mathematical models for the safety assessment of robots to humans

O. G. Pensky

Perm State University, Russia, 614990, Penn, Bukirev St., 15 ogpensky;'gmail.ra: (342) 2 396 309

The author describes the relevance of safety review of intelligent machines to humans. The paper presents mathematical models and algorithms to assess security robots and a theorem about the dangers of robots with absolute memory in humans.

Key words: robot; Laws of Robotics; the memory of the robot; safety.

i Надоели баннеры? Вы всегда можете отключить рекламу.