МАТЕМАТИЧЕСКИЕ МЕТОДЫ И ЦИФРОВЫЕ ТЕХНОЛОГИИ В СОВРЕМЕННОЙ КРИМИНОЛОГИИ
MATHEMATICAL METHODS AND DIGITAL TECHNOLOGIES IN MODERN CRIMINOLOGY
УДК 34.023; 341.01; 343.2/.7; 343.12 DOI 10.17150/2500-4255.2019.13(2).197-206
СОВРЕМЕННЫЕ ПОТРЕБНОСТИ ПРАВОВОГО ОБЕСПЕЧЕНИЯ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА: ВЗГЛЯД ИЗ РОССИИ
В.А. Шестак, А.Г. Волеводз
Московский государственный институт международных отношений (университет) Министерства иностранных дел Российской Федерации, г. Москва, Российская Федерация
Аннотация. Искусственный интеллект как технология будущего на современном этапе развития общества активно расширяет свои возможности. В связи с этим возникает проблема применения норм в том числе и международного права при решении вопросов, которые отражают сущность и технический регламент использования искусственного интеллекта. Статья посвящена исследованию проблемных аспектов правового регулирования создания и использования искусственного интеллекта, а также разработки понятийного аппарата и определения искусственного интеллекта согласно общепризнанным научным теориям; анализу доктринальных подходов к пониманию места искусственного интеллекта в правоотношениях; доказыванию правовой необоснованности признания обладания статусом личности искусственного интеллекта; критичному анализу предложений американских исследователей по подчинению искусственного интеллекта напрямую полному спектру законов, применяющихся к его человеческому производителю и оператору. Исследованию подвергнуто законодательство в сфере правового регулирования взаимоотношений между человеком и искусственным интеллектом таких государств, как Республика Корея, Соединенные Штаты Америки, Япония, Китайская Народная Республика, Эстонская Республика, Федеративная Республика Германия и Российская Федерация, а также Европейского союза. Представлены разнообразные подходы к классификации характеристик искусственного интеллекта. Рассмотрен вопрос о необходимости определения границ правосубъектности «электронного лица»; проанализирована необходимость возложения компенсации морального и материального ущерба, нанесенного «электронным лицом», на его собственника. В статье также отмечены основные проблемы применения норм права по вопросам регулирования созданных предметов интеллектуальной собственности в авторском праве, уголовной ответственности и участия в уголовном судопроизводстве в контексте использования искусственного интеллекта. Проанализированы основные риски и неопределенности, связанные с искусственным интеллектом и имеющие существенное значение для совершенствования законодательства в этой области. Выработаны предложения по дальнейшему обсуждению следующих вопросов: применение искусственного интеллекта на современном этапе; вероятные направления развития рассматриваемой отрасли; юридически значимые проблемы, поднятые в исследованиях, проводимых в данной сфере, а также при использовании существующих и разработке новых типов автономных интеллектуальных систем; формирование новых стратегий и правовых норм для восполнения пробелов в правовом регулировании использования искусственного интеллекта, в том числе как участника уголовного судопроизводства; создание концепции ответственности в сфере применения искусственного интеллекта, включая уголовную.
f MODERN REQUIREMENTS OF THE LEGAL SUPPORT OF ARTIFICIAL
1 INTELLIGENCE: A VIEW FROM RUSSIA
«
m
| Victor A. Shestak, Aleksander G. Volevodz
J Moscow State Institute of International Relations (MGIMO-University) of the MFA of the Russian Federation, Moscow,
© the Russian Federation
Информация о статье
Дата поступления
7 декабря 2018 г. Дата принятия в печать
8 апреля 2019 г.
Дата онлайн-размещения 26 апреля 2019 г.
Ключевые слова Искусственный интеллект; электронное лицо; международное право; международные концепции искусственного интеллекта; правовое обеспечение искусственного интеллекта; правовое регулирование автономных систем управления; правосубъектность искусственного интеллекта; участник уголовного судопроизводства; уголовная ответственность разработчиков и операторов систем искусственного интеллекта; уголовная ответственность искусственного интеллекта; робот
Article info
Received
2018 December 7 Accepted
2019 April 8 Available online 2019 April 26
Keywords
Artificial intelligence; electronic person; international law; international concepts of artificial intelligence; legal support of artificial intelligence; legal regulation of autonomous control systems; legal personality of artificial intelligence; participant in criminal proceedings; criminal liability of artificial intelligence systems' developers and operators; criminal liability of artificial intelligence; robot
Abstract. At the present stage of the society's development the artificial intelligence is quickly widening its possibilities. These changes raise the issue of applying norms, including international law norms, to solve problems connected with the essence and technical protocol of using artificial intelligence. The article is devoted to the problems of legal regulation of the creation and use of artificial intelligence and the development of the conceptual framework and the definition of artificial intelligence according to the widely recognized scientific theories; the analysis of doctrinal approaches to the understanding of the place of artificial intelligence in legal relations; the evidence that giving artificial intelligence the status of a person is not legally grounded; the critical analysis of the ideas put forward by some American researchers that artificial intelligence should comply with the whole set of laws currently used for its human producer and operator. The authors study the legislation on the legal regulation of relations between the human and artificial intelligence in such countries as the Republic of Korea, the USA, Japan, the People's Republic of China, the Republic of Estonia, the Federal Republic of Germany and the Russian Federation, as well as the European Union. They present various approaches to the classification of artificial intelligence's features. The authors also examine the problem of defining the legal personality of an «electronic person»; analyze the necessity of making the owner liable for the compensation of moral and material damage inflicted by the «electronic person». The article also discusses key problems of enforcing the legal norms regulating intellectual property and copyright, criminal liability and participation in criminal proceedings within the framework of using artificial intelligence. The authors analyze key risks and uncertainties connected with artificial intelligence and crucial for improving relevant legislation. They work out suggestions for the future discussion of the following issues: the applications of artificial intelligence at the contemporary stage; development prospects in this sector; legally relevant problems researched of this sphere and the problems connected with the use of the existing and the development of new autonomous intelligence systems; the development of new strategies and legal norms to bridge the gaps in the legal regulation of using artificial intelligence, including using it as a participant in criminal proceedings; creation of the concept of liability in the sphere of using artificial intelligence, including the criminal one.
В техническом понимании искусственный интеллект (artificial intelligence) представляет собой автоматическое программное управление, при котором алгоритмы не задаются оператором заранее, а создаются внутри системы самостоятельно на основе кодированных описаний различного вида целей, представлений о действиях и информационной базы о внешнем окружении. Операторы условно делят его на «слабый» (иначе — «узкий») и «сильный» («широкий»): первый реализован в системах, предназначенных для решения определенных видов задач (примером могут служить голосовые помощники Apple и «Яндекса»); ко второму относят такие системы, которые имеют обобщенные когнитивные способности и не ограничены в сфере их применения [1; 2].
Искусственный интеллект и право: несколько слов о современном состоянии
Искусственный интеллект как феномен инженерной мысли переживает период интенсивного развития. Это достигается во многом благодаря разработке новых типов нейронных сетей, управлению через технологию
энтропии, так называемого роевого интеллекта и др. Однако неразрешенным остается вопрос правового регулирования данного явления, его основ и условий существования, интеграции в иные системы, в первую очередь — в человеческое общество. Причина тому — отставание теории права от научно-технического прогресса: отсутствие правовой регламентации в области взаимодействия человека и искусственного интеллекта, проблемы морали, безопасности, правосубъектности, ответственности, неприкосновенности частной жизни.
Законодателями и научной общественностью ряда государств предпринимаются определенные шаги к созданию соответствующих регуляций. Впервые о необходимости правового регулирования взаимоотношений между человеком и искусственным интеллектом заговорили южнокорейские ученые [3, р. 144], а законодатели Южной Кореи стали первопроходцами в нормативном закреплении таких доктринальных положений («Корейское право развития искусственного интеллекта роботов» (2005), «Этический устав роботов» (2007) и
«Правовое регулирование автономных систем в Южной Корее» (2012))1. Они констатировали необходимость детального регулирования деятельности создателей программ для функционирования роботов, а также лиц, участвующих в их разработке и производстве, использовании и уничтожении. В США реализуется Дорожная карта развития робототехники (Roadmap for US Robotics, 2011, 2016)2 и Национальная ро-бототехническая инициатива (National Robotics Initiative, 2011, 2016)3. В Японии разработаны и внедрены Руководящие принципы, направленные на обеспечение безопасности использования роботов нового поколения, «Японский план по оживлению экономики», «Новая стратегия роботов. Японская стратегия роботов: обзор, стратегия, план действий» (New Robot Strategy. Japan's Robot Strategy. Vision, Strategy, Action Plan, 2015)4. В Китае принято Руководство о содействии производству промышленных роботов (Guidelines on Promoting the Development of Industrial Robots, 2014)5 и глобальная государственная программа развития «Сделано в Китае — 2025» (Made in China 2025, 2015)6. Европейским парламентом была принята резолюция № 2015/2103(INL) «Нормы гражданского права о робототехнике» (Civil Law Rules on Robotics, 2015)7, в основу которой лег подготовленный в 2014 г. доклад «Регулирование робототехники: вызов Европе», ставший частью большого исследования «Перспективы европейского права»8. В Эстонии принят закон
1 URL: https://www.law.go.kr%2FlsSc.do%3FtabMen uId%3Dtab27%26query%3D.
2 From Internet to Robotics. URL: https://cra.org/ccc/ wp-content/uploads/sites/2/2016/11/roadmap3-final-rs-1.pdf.
3 National Robotics Initiative 2.0: Ubiquitous Collaborative Robots. URL: https://www.nsf.gov/pubs/2019/nsf19536/ nsf19536.pdf.
4 New Robot Strategy. URL: https://www.meti.go.jp/ english/press/2015/pdf/0123_01b.pdf.
5 URL: https://sdpc.gov.cn/zcfb/zcfbghwb/201604/ t20160427_799898.html.
6 URL: https://gov.cn/zhengce/content/2015-05/19/ content_9784.htm.
7 Civil Law Rules on Robotics. European Parliament resolution of 16 February 2017 with recommendations to the Commission on Civil Law Rules on Robotics. 2015. URL: https://europarl.europa.eu/sides/getDoc.do?pubRef=// EP//N0NSGML+TA+P8-TA-2017-0051+0+D0C+PDF+V0// EN. Текст резолюции на рус. яз. см.: URL: https://robopra-vo.ru/uploads/s/z/6/g/z6gj0wkwhv1o/file/oQeHTCnw.pdf.
8 URL: https://www.europarI.europa.eu/RegData/etudes/
IDAN/2014/509987/IP0L_IDA(2014)509987(AN N01)_EN.pdf.
о роботах-курьерах (2017)9, в Германии — закон об использовании высокоавтоматизированных автомобилей (2017)10. Не осталась в стороне и Россия. В нашей стране успешно реализуется государственная программа «Цифровая экономика Российской Федерации»11, а также Стратегия развития информационного общества в Российской Федерации на 2017-2030 годы12.
Но ни в одном официальном документе нормативного определения понятия «искусственный интеллект» не содержится, хотя сам термин активно используется во многих странах. Такое положение обусловлено отсутствием как в Старом, так и в Новом Свете единого правового подхода к установлению его сущностных характеристик. В частности, создатели European Civil Law Rules on Robotics полагают, что нельзя дать точную дефиницию искусственного интеллекта, что связано с реальным наличием различных видов роботов. В этой связи, по их мнению, к изучению последних нужно подходить казуистично, рассматривая каждую роботизированную систему в отдельности.
Сходную позицию с ними занимают и американские исследователи. В их среде популярной является четырехтиповая характеристика искусственного интеллекта [4]: 1) реактивные машины (примером может служить шахматный компьютер Deep Blue, созданный IBM и победивший Г. Каспарова в начале 1990-х гг. [5]), этот тип системы не умеет накапливать и анализировать данные по уже реализованным решениям; 2) системы с ограниченной памятью, которые могут использовать прошлый опыт для будущих решений (в частности, ряд функций беспилотных автомобилей реализован с использованием таких систем); 3) разумные машины — исходя из того, что термин «разум» в психологии обозначает пони-
9 Изменения в Закон о дорожном движении от 14 июня 2017 г. URL: https://riigiteataja.ee/akt/ 107072017008. Текст на рус. яз. см.: http://robopravo.ru/ uploads/s/z/6/g/z6gj'0wkwhv1o/file/vqBsa820.pdf.
10 Восьмой закон о внесении изменений в Закон о дорожном движении от 16 июня 2017 г. Текст на рус. яз. URL: https://robopravo.ru/uploads/s/z/6/g/ z6gj0wkwhv1o/file/5MZ0clyT.pdf.
11 Об утверждении программы «Цифровая экономика Российской Федерации» : распоряжение Правительства РФ от 28 июля 2017 г. № 1632-р // Собрание законодательства РФ. 2017. № 32. Ст. 5138.
12 О Стратегии развития информационного общества в Российской Федерации на 2017-2030 годы : указ Президента РФ от 9 мая 2017 г. № 203 // Там же. № 20. Ст. 2901.
мание того, что другие имеют свои собственные убеждения, желания и намерения, влияющие на решения, которые они принимают; 4) системы с искусственным самосознанием, которые могут формировать представления о себе.
О некоторых доктринальных подходах к пониманию места искусственного интеллекта в правоотношениях
Остроту проблеме придают и споры о возможности признания/непризнания искусственного интеллекта личностью. Ряд исследователей занимает следующую позицию: если прогресс электронных систем пойдет по предсказываемому пути развития, то технику можно будет охарактеризовать как мыслящего человекоподобного робота, что неминуемо повлечет изменение законов, для того чтобы охватить роль подобных систем в обществе. Они полагают, что правовой статус электронной системы с элементами искусственного интеллекта и совершенного автономного юнита не может быть одинаковым. Последнего, по их мнению, можно без лишних колебаний признать полноценным киберсубъектом общества, но с той оговоркой, что подобный статус будет иметь различные по спектру прав и ответственности варианты, поскольку поставить в один ряд банкомат, систему «умный дом» и боевого робота не представляется возможным. Из этого ими делается вывод, что системы с искусственным интеллектом должны обладать определенным правовым статусом, который будет зависеть от функционала и иных особенностей конкретной системы [6, p. 383].
Глава совета директоров российской компании Mail.ru и основатель компании Grishin Robotics Д. Гришин в 2016 г. представил общественности концепцию закона о робототехнике, правовое положение искусственного интеллекта в которой сходно с правовым положением животных. По его мнению, роботы не могут быть субъектами права ввиду отсутствия эмоций, однако они способны осуществлять автономные действия, как те же животные, и поэтому должны быть юридическими объектами и могут быть наделены правосубъектностью. Кроме того, по его мнению, принципиально необходимым является установление ответственности разработчиков робототехники, которая может причинить ущерб людям, а также создание единого международного реестра роботов [7]. При этом полагаем, что следует разрабаты-
вать доктринальные и правовые основы всех видов ответственности таких разработчиков, включая уголовную.
Дабы обнаружить предпосылки к наделению искусственного интеллекта правосубъектностью, ряд исследователей обращается к «Чистому учению о праве» Г. Кельзена, по которому субъект права выступает как индивидуализированное единство совокупности правовых норм, устанавливающих юридические обязанности и субъективные права, имеющие своим содержанием определенное поведение. Субъект права — не природная реальность, а конструкция, создаваемая для описания юридически значимых фактических составов [8, с. 212-219]. В этой связи, по их мнению, появляется возможность сформулировать понятие «электронное лицо» и в дальнейшем рассматривать его как субъект права, поскольку последнее является по существу совокупностью юридических обязанностей и прав, содержанием которых могут признаваться и действия искусственного интеллекта. Такой подход дает возможность определять «электронное лицо» как носителя искусственного интеллекта (будь то машина, робот, программа), обладающего разумом, аналогичным человеческому, способностью принимать осознанные и не основанные на заложенном создателем такой машины, робота, программы алгоритме решения и в силу этого наделенного определенными правами и обязанностями [9].
Предложения по использованию термина «электронное лицо» и по наделению его правосубъектностью все чаще звучат в Европейском союзе. Интерес к теме подогревает комитет Ев-ропарламента по правовым вопросам. В разработанном им проекте доклада о статусе «электронного лица» указываются такие признаки «разумности» роботов, как умение анализировать данные; способность адаптировать свое поведение; наличие физической поддержки; приобретаемая посредством датчиков и контакта с окружающей средой автономия, а также возможность самообучения13. По мнению его авторов, разработка средств, которые позволяют оценить уровни сознания искусственного интеллекта, обусловливает возможность постановки вопроса о его правах — на неотключение вопреки собственной воле; на широкий доступ к
13 Draft Report with recommendations to the Commission on Civil Law Rules on Robotics. 2016 / Committee on Legal Affairs // European Parliament. URL: https://www. europarl.europa.eu/sides/getDoc.do?pubRef.
своему цифровому коду; на защиту своего цифрового кода от воздействия извне; на самостоятельное решение вопроса о копировании своего цифрового кода. В документе отмечается, что самые высокоразвитые и высокотехнологичные роботы должны приобрести статус электронного лица с присущей ему правосубъектностью, и применять этот статус следует всегда, когда роботы самостоятельно принимают волевые решения или каким-либо иным образом взаимодействуют с третьими лицами.
Такие подходы прямо свидетельствуют о желании части общества рассматривать «электронное лицо» как реально действующее, поскольку на него возлагается та или иная обязанность, которую оно может исполнить либо нет [10]. В этой связи возникает вопрос: на ком будет лежать ответственность за неисполнение данной обязанности? И здесь нет однозначной позиции.
По мнению всемирно известного предпринимателя в сфере инноваций И. Маска, государствам пришло время задуматься над вопросом регулирования искусственного интеллекта, пока не стало слишком поздно. Он настаивает на том, что искусственный интеллект представляет собой экзистенциальную угрозу человечеству, считает, что с помощью искусственного интеллекта мы вызываем демона, которого не сможем контролировать [11]. Некоторым такие высказывания могут показаться чрезмерно эмоциональными, однако полагаем, что его опасения по поводу негативного влияния искусственного интеллекта на человеческую деятельность, в том числе и на международные отношения, вполне естественны. Вступая в неизведанное, лучше преувеличить опасность, чтобы потом не оказаться в не столкнуться с неожиданностями.
Нельзя не отметить, что американским профессором Л. Соулумом уже были сформулированы тезисы, доказывающие правовую необоснованность признания того, что искусственный интеллект обладает статусом личности [12, р. 1257]. Он полагает, что электронные системы, и даже системы с полным искусственным интеллектом, не могут рассматриваться в качестве аналогичных или тождественных людям сущностей. А также как пример приводит 14-ю поправку к Конституции США, согласно которой все личности, рожденные или натурализованные в Соединенных Штатах, будучи субъектами юрисдикции таковых, являются гражданами Соединенных Штатов. Таким образом, только люди
могут рождаться, следовательно, искусственный интеллект не может обладать правами граждан.
Мы полностью солидарны с таким мнением, поскольку сами полагаем, что искусственный интеллект не является носителем критически важных составляющих личности. Он лишен таких элементов, как душа, полностью свободное сознание, чувства, интенциональность и личные интересы [13]. При всем своем развитии и скорости обработки информации, в разы превосходящей даже потенциальные возможности человека, искусственный интеллект остается программой с привязанным к ней материально-техническим обеспечением.
Дуальные позиции о допустимом наличии у отдельных нефизических лиц гражданских прав по аналогии с юридическими лицами, а также о несостоятельности аргумента Л. Соулума о невозможности для электронных систем претендовать на конституционные права личности ввиду отсутствия у первых души, что якобы связано исключительно с устоявшимся в обществе классическим теологическим пониманием таковой, полагаем надуманными и несостоятельными, а предложения признать идентичность живого и искусственного — вредными не только с позиции веры, но и по сути.
Дискуссию вызывает комплексная неразрешенного проблемы обеспечения конфиденциальности данных, гарантий уважения основополагающих ценностей и прав человека, в том числе и при использовании современных цифровых технологий. В целом в России соответствующая задача была решена еще в 2006 г. с принятием федерального закона о персональных данных. Спустя десятилетие в Евросоюзе также был принят Общий регламент по защите (персональных) данных (GDPR), который вступил в действие в истекшем году. Однако до настоящего времени ни право ЕС, ни российское законодательство не регламентировали запрет на разглашение и передачу персональной14 и конфиденциальной информации автономными системами, использующими искусственный интеллект, без явного одобрения источником этой информации.
14 Российский суд штрафует Google за «чтение личной переписки» в Gmail. URL: https://ru.globalvoices. org/2015/09/19/42660 ; Google отучит роботов читать почту пользователей, раньше это делалось для тарге-тирования рекламы. URL: https://www.vedomosti.ru/ technology/articles/2017/06/25/695884-google-otuchit-robotov.
И это в условиях, когда сформировавшаяся позиция о том, что только человек ответствен за действия механизмов, подвергается проверке на прочность. Техника, управляемая искусственным интеллектом, стала обучаемой, она способна действовать самостоятельно, т.е. не только без оперативной помощи человека, но и без его непосредственного контроля. Да и сам искусственный интеллект разительно отличается от существующих ординарных компьютерных программ способностью самообучения на основе полученного им опыта. Именно это позволяет ему принимать различные решения в сходных ситуациях, учитывая выполненные ранее действия [14].
Искусственный интеллект: возможная дорога
от определения понятия к будущей стратегии или концепции правового регулирования
Возникает обоснованный вопрос: что же такое «искусственный интеллект»?
Впервые это понятие в научный оборот ввел один из ведущих кибернетиков — Дж. Маккар-ти из Стэнфордского университета — во второй половине 50-х гг. прошлого века [15]. Благодаря его исследованиям сегодня под искусственным интеллектом в целом западными специалистами понимается моделирование процессов человеческого интеллекта с помощью машин, компьютерных систем, которое включает в себя обучение (получение информации и правила ее использования), рассуждения (использование правил для достижения приблизительных или определенных выводов) и самокоррекцию [16]. Российский ученый Е.П. Попов в начале 2000-х гг. под интеллектуальным управлением предложил понимать «автоматическое... при котором программные алгоритмы заранее не задаются, а формируются самой системой управления на основе формализованных описаний целей, знаний о возможных действиях и информации о текущих изменениях состояния внешней среды» [17].
Другие исследователи считают, что искусственный интеллект представляет собой сложную кибернетическую программно-компьютерную систему при наличии функционально-когнитивной архитектуры и собственных вычислительных мощностей, которая обладает субстантивными свойствами, в том числе и определенной субъектностью в качестве интеллектуального агента; высокого уровня возможностями восприятия, распознавания, анализа, оценки и моделирования окружающей среды
и отношений в ней, принятия самостоятельных решений и корректировки собственных алгоритмов, воспроизведения когнитивных функций; способностями к самореферентной адаптации собственного поведения, глубинному самообучению, в целях разрешения различных задач конкретного класса, или самоомологаци-ей путем выработки омологированных протоколов и способов коммуникации внутри самой системы, выполнения определенных когнитивных функций, на данный момент относимых к исключительной компетенции человека, в том числе выполнение творческих задач, накопление опыта и др. [18]. Мы же склонны считать приемлемыми для возможного правового регламентирования существенные характеристики искусственного интеллекта, определенные О.А. Ястребовым (результат деятельности человека, который представляет собой сложную совокупность коммуникационных и технологических взаимосвязей, обладающую способностью логически мыслить, управлять своими действиями и корректировать свои решения в случае изменения внешних условий [19, с. 41]), как наиболее емко раскрывающие его сущность в современных условиях.
Что же касается непосредственной ответственности искусственного интеллекта, то в нынешних правовых и социальных условиях вопрос о его гипотетической ответственности, полагаем, носит тупиковый характер: меры юридической ответственности просто неприменимы к нему. К примеру, Г. Халлеви, обсуждая вопрос о возможности его привлечения к уголовной ответственности, отмечал, что ключевым должен являться именно вопрос о наличии субъективной стороны правонарушения, которая отсутствует у последнего ввиду невозможности юнитом искусственного интеллекта осознавать последствия своих вредных действий [20].
Важным здесь представляется и мнение руководителя Института искусственного интеллекта им. Пола Аллена О. Этциони [21]. Он полагает, что автономную систему, использующую искусственный интеллект, требуется подчинить полному спектру законов, которые применяются к ее человеческому оператору. Такое правило должно охватывать частные, корпоративные и государственные системы, а нормы международного права необходимо изменить так, чтобы человек не мог утверждать, что автономная система сделала то, что он не мог понять или предвидеть. Мы поддерживаем его позицию в
том, что на современном этапе развития права незаконное поведение искусственного интеллекта всегда должно иметь следствием человеческую ответственность. В этой связи, вероятно, потребуется и законодательно закрепить правило, согласно которому автономная система, вступая в общение, должна ясно раскрывать, что она не человек. В условиях, когда компьютерные программы-боты могут участвовать во все более сложном диалоге с людьми15, обществу нужны надежные гарантии обозначения и идентификации наделенных искусственным интеллектом систем.
Сходного подхода придерживаются российские законодатели. В России ответственность за неправомерные последствия функционирования промышленных роботов несут их владельцы, производители или операторы [22]. В рекомендациях ПАСЕ «Слияние с технологиями, искусственный интеллект и права человека» от 28 апреля 2017 г. № 2102 также прямо указано, что ответственность за деяния искусственного интеллекта лежит на человеке независимо от обстоятельств произошедшего, и даже ссылки на независимость принятых юнитами искусственного интеллекта решений не могут освобождать их создателей, владельцев и операторов от ответственности16.
Такие решения являются закономерным следствием подвергающегося в современных условиях испытаниям доктринального подхода к массовому принятию систем искусственного интеллекта и их ассимиляции в повседневной жизни. В этом контексте роль международного права может заключаться в координации развития правового регулирования; возможно, в разработке согласованных на международном уровне руководящих принципов, обеспечивающих интеграцию фундаментальных ценностей при развитии автономных систем, использующих искусственный интеллект; в адаптации существующих норм и концепций; в восполнении пробелов в правовом регулировании; в разработке и принятии концепции ответственности.
15 Такие системы могут не только продуцировать сообщения в социальных сетях, но и запускать поддельные новостные видео, влиять на политические процессы и общественное мнение.
16 Recommendation of Parliamentary Assembly of the Council of Europe // Technological Convergence, Artificial Intelligence and Human Rights. 2017. № 2102. URL: https://assembly.coe.int/nw/xml/XRef/Xref-XML2HTML-en.asp?fileid=23726&lang=en.
Впрочем, новые технологии не обязательно требуют формирования особых или новых правил. Существующие правовые понятия достаточно гибки и абстрактны, чтобы адаптироваться к новым сценариям развития техники. Тем не менее последствия применения некоторых технологических достижений, связанные с автономно действующими устройствами, особенно двойного назначения, бывают настолько разрушительны, что действующие правовые рамки уже с трудом могут охватить их.
В условиях усложнения, децентрализации, автономизации технологий искусственного интеллекта установить контроль человека над определенными результатами становится все труднее. Даже если система, использующая искусственный интеллект, управляется человеком, последний может иметь ограниченный контроль над всеми возможными действиями и реакциями системы, равно как и разработчики не всегда могут предугадать поведение самообучающихся систем. Такая ситуация требует осмысления единого подхода к определению (не) возможной правосубъектности и юридической ответственности искусственного интеллекта.
Какие бы подходы к определению сущности искусственного интеллекта ни избирались, факт объективного существования техники, управляемой искусственным интеллектом и обладающей способностью определенного рода воздействия на окружающий материальный мир, является очевидным. Искусственный интеллект реально овеществлен и наделен способностью анализировать и составлять поведенческий алгоритм вне зависимости от программных предустановок, а значит, нуждается в правовой регламентации.
Особые возможности искусственного интеллекта в области анализа больших объемов данных и прогнозирования различных процессов, отсутствие правового регулирования их использования создают серьезную проблему мирового масштаба, суть которой заключается в формирующихся вызовах, в том числе в отношении прозрачности, конфиденциальности, равенства и подотчетности, которой уже приходится противостоять человечеству. Например, из-за сложной внутренней работы и автономных возможностей алгоритмов машинного обучения последние могут достигать результатов, которые люди не в состоянии объяснить. Непрозрачность новых технологий связана и с тем, что многие из них разрабатываются коммерче-
скими корпорациями в рамках закрытых алгоритмов17. Для устранения складывающегося в сфере правового регулирования искусственного интеллекта противоречия в качестве одного из возможных решений, которое мы поддерживаем, было предложено, чтобы определенные алгоритмы и данные находились исключительно в государственной собственности в целях повышения прозрачности и обеспечения безопасности их использования [23].
Полагаем полезным обсудить в ходе широкой научной дискуссии, в том числе на международном уровне, вопрос о формировании единых подходов к пониманию места искусственного интеллекта в современной системе знания и международных отношений, а с учетом полученных результатов — о возможности закрепления в международном праве и последующей имплементации в национальное право основных принципов (возможно, даже международных стандартов) распределения ответственности между множеством субъектов, участвующих в разработке или использовании технологий искусственного интеллекта. По сути, такое распределение ответственности должно отражать подлинную связь между действиями и бездействием субъекта и последующим ущербом. И, как предлагает ряд специалистов: максимизировать при этом возможности для использования средств правовой защиты, избе-
17 Обзор дискуссий об искусственном интеллекте в Массачусетском технологическом институте. URL: https://www.technologyreview.com/s/612054/fei-fang-carnegie-mellon-artificial-intelligence.
гая чрезмерного распыления ответственности среди субъектов [24]. Решение такой непростой задачи, возможно, потребует выработки комплексных подходов, а также вовлечения в процесс правотворчества не только государственных и частных субъектов, но и представителей духовенства.
В этой связи логично проработать следующие задачи: сформулировать подходы к будущей стратегии или концепции правового регулирования искусственного интеллекта; определить рамки его правосубъектности и вероятность ответственности; предложить направления их развития как в национальном, так и в международном праве; исследовать юридически значимые проблемы, возникшие в связи с новыми разработками искусственного интеллекта, а также связанные с использованием уже существующих типов автономных интеллектуальных систем, в том числе транспортных, коммуникационных, безопасности и пр.; определить перспективы создания доктрин и правовых положений, относящихся к разработке, контролю и развертыванию автономных интеллектуальных систем, правовых режимов, применимых к использованию таких систем, а также формирования связей между новыми механизмами правового обеспечения искусственного интеллекта; допустимость и пределы применения современных норм права об ответственности (административной, гражданско-правовой, уголовной) в отношении разработчиков систем искусственного интеллекта, их операторов и других лиц.
СПИСОК ИСПОЛЬЗОВАННОЙ ЛИТЕРАТУРЫ
1. Косс В.А. Модель естественного интеллекта и пути реализации задач искусственного интеллекта / В.А. Косс // Математические машины и системы. — 2006. — № 4. — С. 21-35.
2. Абдикеев Н.М. Технологии когнитивного менеджмента в цифровой экономике / Н.М. Абдикеев // Мир новой экономики. — 2017. — № 3. — C. 24-28.
3. Kim Yoon-mi. Korea drafts «Robot Ethics Charter» [Electronic Resource] / Kim Yoon-mi // The Korea Herald. — 2007. — Apr., 28. — Mode of access: https://link.galegroup.com/apps/doc/A166092392/A0NE?u=googlescholar&sid=A0N E&xid=340db03e.
4. Hintze A. Understanding the Four Types of AI, from Reactive Robots to Self-aware Beings [Electronic Resource] / A. Hin-tze. — Mode of access: https:// theconversation.com/understanding-the-four-types-of-ai-from-reactive-robots-to-self-aware-beings-67616.
5. Pandolfini B. Kasparov and Deep Blue: The Historic Chess Match Between Man and Machine / B. Pandolfini. — New York : Simon & Schuster, 1997. — 176 p.
6. Cerka P. Liability for Damages Caused by Artificial Intelligence / P. Cerka, J. Grigiené, G. Sirbikyté // Computer Law & Security Review. — 2015. — Vol. 31, iss. 3. — P. 376-389.
7. Гришин Д. Закон о робототехнике [Электронный ресурс] / Д. Гришин ; интервьюер А. Плющеев. — Режим доступа: https://echo.msk.ru/ programs/tochka/1893198-echo.
8. Кельзен Г. Чистое учение о праве / Г. Кельзен. — 2-е изд. — СПб. : Алеф-Пресс, 2015. — 542 с.
9. Баранов П.П. Правовое регулирование робототехники и искусственного интеллекта в России: некоторые подходы к решению проблемы / П.П. Баранов // Северо-Кавказский юридический вестник. — 2018. — № 1. — С. 39-45.
10. González M. Regulacion Legalde la Robotica y la Inteledencia Artificial: Retos de Futuro / M. González // Revista Jurídica de la Universidad de León. — 2017. —№ 4. — P. 25-50.
11. Musk E. We need to Regulate AI before 'it's too Late' [Electronic Resources] / E. Musk. — Mode of access: http://thehill. com/policy/technology/342345-elon-musk-we-need-to-regulate-ai-before-its-too-late.
12.Solum L.B. Legal Personhood for Artificial Intelligences / L.B. Solum // North Carolina Law Review. — 1992. — Vol. 70, № 4. — P. 1231-1287.
13. Philosophical View of Multiculturalism in Modern European Cinematography / Yu.V. Nikolaeva [et al.] // European Journal of Science and Theology. — 2018. — № 14 (6). — P. 205-214.
14. Full Packaged Learning Solutions for Studying Mathematics at School / V.V. Utemov [et al.] // Eurasia Journal of Mathematics, Science and Technology Education. — 2018. — № 14 (12). — em1619.
15. A Proposal for the Dartmouth Summer Research Project on Artificial Intelligence / J. McCarthy [et al.] // AI Magazine. — 2006. — Vol. 27, № 4. — Р. 12-14.
16. Бостром Н. Искусственный интеллект. Этапы. Угрозы. Стратегии / Н. Бостром. — М. : Манн, Иванов и Фербер, 2016. — 760 с.
17. Робототехника. Терминология / отв. ред. Е.П. Попов. — М., 2000. — 49 с.
18. Понкин И.В. Искусственный интеллект с точки зрения права / И.В. Понкин, А.И. Редькина // Вестник РУДН. Сер.: Юридические науки. — 2018. — Т. 22, № 1. — С. 91-109.
19. Ястребов О.А. Правосубъектность электронного лица: теоретико-методологические подходы / О.А. Ястребов // Труды Института государства и права РАН. — 2018. — Т. 13, № 2. — С. 36-55.
20. Hallevy G. Liability for Crimes Involving Artificial Intelligence Systems / G. Hallevy. — Dordrecht : Springer, 2015. — 262 p.
21. Этциони О. Интервью [Электронный ресурс] / О. Этциони. — Режим доступа: https://hardnews24.ru/intervyu-oren-etcioni-direktor-instituta-iskusstvennogo-intellekta-im-allena.
22. Ястребов О.А. Искусственный интеллект в правовом пространстве: концептуальные и теоретические подходы / О.А. Ястребов // Правосубъектность: общетеоретический, отраслевой и международно-правовой анализ : сб. материалов к 12-м ежегод. науч. чтениям памяти проф. С.Н. Братуся / под ред. А.В. Габова [и др.]. — М., 2017. — С. 271-274.
23. Hibbard B. The Ethics and Politics of Super-Intelligent Machines [Electronic Resources] / B. Hibbard. — Mode of access: http://www.ssec.wisc.edu/~billh/g/SI_ethics_politics.doc.
24. Energy Saving Projects as Energy Security Factors / V.A. Shestak [et al.] // International Journal of Energy Economics and Policy. — 2018. — Vol. 8, iss. 6. — P. 155-160.
REFERENCES
1. Koss V.A. Model of Natural Intelligence and Ways of Realizing the Tasks of Artificial Intelligence. Matematicheskiemashiny i sistemy = Mathematical machines and systems, 2006, no. 4, pp. 21-35. (In Russian).
2. Abdikeev N.M. Technology of Cognitive Management in the Digital Economy. Mir novoi ekonomiki = The World of New Economy, 2017, no. 3, pp. 24-28. (In Russian).
3. Kim Yoon-mi. Korea Drafts «Robot Ethics Charter». The Korea Herald, 2007, April, 28. Available at: https://link.galegroup. com/apps/doc/ A166092392/A0NE?u=googlescholar&sid=A0NE&xid=340db03e.
4. Hintze A. Understanding the Four Types of AI, from Reactive Robots to Self-aware Beings. Available at: https://theconver-sation.com/understanding-the-four-types-of-ai-from-reactive-robots-to-self-aware-beings-67616.
5. Pandolfini B. Kasparov and Deep Blue: The Historic Chess Match between Man and Machine. New York, Simon & Schuster, 1997. 176 p.
6. Cerka P., Grigiené J., Sirbikyté G. Liability for Damages Caused by Artificial Intelligence. Computer Law & Security Review, 2015, vol. 31, iss. 3, pp. 376-389.
7. Grishin D.; Plyushcheev A. (ed.). Zakon o robototekhnike [The Law of Robotics]. Available at: https://echo.msk.ru/pro-grams/tochka/1893198-echo.
8. Kelsen H. Pure Theory of Law. Berkeley, University of California Press, 1967. 356 p. (Russ. еd. Kelsen H. Chistoe uchenie o prave. 2nd ed. Saint Petersburg, Alef-Press Publ., 2015. 542 p.).
9. Baranov P.P. Legal Regulation of Robotics and Artificial Intelligence in Russia: Some Approaches to Solving the Problem. Severo-kavkazskii yuridicheskii vestnik = North Caucasus Legal Vestnik, 2018, no. 1, pp. 39-45. (In Russian).
10. González M. Regulacion Legalde la Robotica y la Inteledencia Artificial: Retos de Futuro. Revista Jurídica de la Universidad de León, 2017, no. 4, pp. 25-50. (In Spanish).
11. Musk E. We Need to Regulate AI before 'it's Too Late'. Available at: http://thehill.com/policy/technology/342345-elon-musk-we-need-to-regulate-ai-before-its-too-late.
12. Solum L.B. Legal Personhood for Artificial Intelligences. North Carolina Law Review, 1992, vol. 70, no. 4, pp. 1231-1287.
13. Nikolaeva Yu.V., Grimalskaya S.A., Petrosyants D.V., Zulfugarzade T.E., Maystrovich E.V., Shestak V.A. Philosophical View of Multiculturalism in Modern European Cinematography. European Journal of Science and Theology, 2018, no. 14 (6), pp. 205-214.
14. Utemov V.V., Khusainova R.M., Shestak V.A., Sergeeva M.G. Full Packaged Learning Solutions for Studying Mathematics at School. Eurasia Journal of Mathematics, Science and Technology Education, 2018, no. 14 (12), em1619.
15. McCarthy J., Minsky M.L., Rochester N., Shannon C.E. A Proposal for the Dartmouth Summer Research Project on Artificial Intelligence. AI Magazine, 2006, vol. 27, no. 4, pp. 12-14.
16. Bostrom N. Superintelligence: Paths, Dangers, Strategies. Hardcover, Oxford University Press. 328 p. (Russ ed.: Bostrom N. Iskusstvennyi intellekt. Etapy. Ugrozy. Strategii. Moscow, Mann, Ivanov i Ferber Publ., 2016. 760 p.).
17. Popov E.P. Robototekhnika. Terminologiya [Robotics. Terminology]. Moscow, 2000. 49 p.
18. Ponkin I.V., Redkina A.I. Artificial Intelligence from the Point of View of Law. Vestnik RUDN. Seriya: Yuridicheskie nauki = RUDN Journal of Law, 2018, vol. 22, no. 1, pp. 91-109. (In Russian).
19. Yastrebov O.A. The Legal Capacity of Electronic Persons: Theoretical and Methodological Approaches. Trudy Instituta gosudarstva i prava RAN = Proceedings of the Institute of State and Law of the RAS, 2018, vol. 13, no. 2, pp. 36-55. (In Russian).
20. Hallevy G. Liability for Crimes Involving Artificial Intelligence Systems. Dordrecht, Springer, 2015. 262 p.
21. Ettsioni O. Interv'yu [Interview]. Available at: https://hardnews24.ru/intervyu-oren-etcioni-direktor-instituta-iskusstven-nogo-intellekta-im-allena.
22. Yastrebov O.A. Artificial Intelligence in the Legal Space: Conceptual and Theoretical Approaches. In Gabov A.V., Gut-nikov O.V., Simvolokov O.A., Sinitsyn S.A., Shelyutto M.L. (eds.). Pravosub"ektnost': obshcheteoreticheskii, otraslevoi i mezhdun-arodno-pravovoi analiz. Sbornik materialov k 12-m Ezhegodnym nauchnym chteniyam pamyati professora S.N. Bratusya [Legal Personality Theoretical, Sectoral, International Legal Analysis. The Collection of Materials for the 12th Annual Scientific Readings in Memoriam of Professor S.N. Bratus]. Moscow, 2017, pp. 271-274. (In Russian).
23. Hibbard B. The Ethics and Politics of Super-Intelligent Machines. Available at: http://www.ssec.wisc.edu/~billh/g/SI_eth-ics_politics.doc.
24. Shestak V.A., Kvon G.M., Prokopev A.I., Ivanova S.A., Vodenko K.V. Energy Saving Projects as Energy Security Factors. International Journal of Energy Economics and Policy, 2018, vol. 8, iss. 6, pp. 155-160.
ИНФОРМАЦИЯ ОБ АВТОРАХ
Шестак Виктор Анатольевич — профессор кафедры уголовного права, уголовного процесса и криминалистики Московского государственного института международных отношений (университета) Министерства иностранных дел Российской Федерации, доктор юридических наук, доцент, г. Москва, Российская Федерация; e-mail: shestak.v.a@mgimo.ru.
Волеводз Александр Григорьевич — заведующий кафедрой уголовного права, уголовного процесса и криминалистики Московского государственного института международных отношений (университета) Министерства иностранных дел Российской Федерации, доктор юридических наук, доцент, г. Москва, Российская Федерация; e-mail: a.volevodz@inno.mgimo.ru.
ДЛЯ ЦИТИРОВАНИЯ
Шестак В.А. Современные потребности правового обеспечения искусственного интеллекта: взгляд из России / В.А. Шестак, А.Г. Волеводз // Всероссийский криминологический журнал. — 2019. — Т. 13, № 2. — С. 197206. — DOI: 10.17150/2500-4255.2019.13(2).197-206.
INFORMATION ABOUT THE AUTHORS
Shestak, Victor A. — Professor, Chair of Criminal Law, Criminal Procedure and Criminalistics, Moscow State Institute of International Relations (MGIMO-University) of the Ministry of Foreign Affairs of the Russian Federation, Doctor of Law, Ass. Professor, Moscow, the Russian Federation; e-mail: shestak.v.a@mgimo.ru.
Volevodz, Aleksander G. — Head, Chair of Criminal Law, Criminal Procedure and Criminalistics, Moscow State Institute of International Relations (MGIMO-University) of the Ministry of Foreign Affairs of the Russian Federation, Doctor of Law, Ass. Professor, Moscow, the Russian Federation; e-mail: a.volevodz@inno.mgimo.ru.
FOR CITATION Shestak V.A., Volevodz A.G. Modern requirements of the legal support of artificial intelligence: a view from Russia. Vserossiiskii kriminologicheskii zhurnal = Russian Journal of Criminology, 2019, vol. 13, no. 2, pp. 197-206. DOI: 10.17150/2500-4255.2019.13(2).197-206. (In Russian).