УДК 343
DOI: 10.18384/2310-6794-2020-2-96-106
СУЩНОСТЬ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА И ПРОБЛЕМА ОПРЕДЕЛЕНИЯ ПРАВОСУБЪЕКТНОСТИ
Хисамова З. И.1, Бегишев И. Р.2
1 Краснодарский университет Министерства внутренних дел Российской Федерации 350005, г. Краснодар, ул. Ярославская, д. 128, Российская Федерация 2Казанский инновационный университет имени В. Г. Тимирясова 420111, г. Казань, ул. Московская, д. 42, Российская Федерация
Аннотация.
Цель. Цель данного исследования заключается в определении правовой сущности искусственного интеллекта и выработке единого подхода к установлению возможной правосубъектности, а также юридической ответственности искусственного интеллекта.
Процедура и методы исследования. Авторами проанализированы имеющиеся научная литература и нормативно-правовая база в сфере правового регулирования искусственного интеллекта. Методологическую основу исследования составляет совокупность методов научного познания, в т. ч. абстрактно-логического, корреляционного анализа и сравнения.
Результаты проведённого исследования. Анализ показал, что в настоящее время не разработано определения понятия «искусственный интеллект», имеет место проблема признания его субъектом права. Авторы утверждают, что, только решив вышеуказанные вопросы, можно сформировать модель правового регулирования, включающую ряд правоотношений с участием искусственного интеллекта и возложением на него юридической ответственности. Оптимальным видится наделение искусственного интеллекта ограниченной правосубъектностью (путём применения юридической фикции), обязанностью нести ответственность за причиняемый вред и негативные последствия.
Теоретическая / практическая значимость. Теоретическая и практическая значимость исследования обусловлена отсутствием в настоящее время возможности применения к отношениям с участием искусственного интеллекта правовых норм и правил, учитывающих их сущность. Основные положения и выводы исследования могут быть использованы для совершенствования механизмов правового регулирования искусственного интеллекта.
Ключевые слова: интеллектуальная система, искусственный интеллект, ответственность искусственного интеллекта, ответственность, понятие искусственного интеллекта, правосубъектность, субъект права, фикция, цифровые технологии, цифровая экономика
THE NATURE OF ARTIFICIAL INTELLIGENCE AND THE PROBLEM OF LEGAL PERSONALITY DETERMINATION
Z. Hisamova1, I. Begishev2
1 Krasnodar University of the Ministry of Internal Affairs of the Russian Federation 128, Yaroslavskaya ul., 350005, Krasnodar, Russian Federation 2Kazan Innovative University named after V. G. Timiryasov 42, Moskovskaya ul., 420111, Kazan, Russian Federation
© CC BY Хисамова З . И Бегишев И . Р. , 2020.
Abstract.
Purpose. The purpose of the article is to determine the legal nature of artificial intelligence and develop a unified approach to establishing the possible legal personality, as well as the legal responsibility of artificial intelligence.
Methodology and Approach. The authors analyzed the existing scientific literature and the legal framework in the field of legal regulation of artificial intelligence. The methodological basis of the research is a set of methods of scientific knowledge, including abstract-logical, correlation analysis and comparison.
Results. The analysis has shown that currently there is no definition of the concept of «artificial intelligence», there is a problem of recognizing it as a subject of law. The authors argue that only by solving the above issues it is possible to form a model of legal regulation, including a number of legal relations involving artificial intelligence and assigning it legal responsibility. It is considered optimal to grant artificial intelligence limited legal personality (through the use of legal fiction), the obligation to bear responsibility for harm and negative consequences.
Theoretical and Practical implications. The theoretical and practical significance of the research lies due to the current lack of the possibility of applying legal norms and rules that take into account their essence to relations involving artificial intelligence. The main provisions and conclusions of the study can be used to improve the mechanisms of legal regulation of artificial intelligence.
Keywords: intellectual system, artificial intelligence, responsibility of artificial intelligence, responsibility, concept of artificial intelligence, legal personality, subject of law, fiction, digital technologies, digital economy
ВВЕДЕНИЕ
Рассматривая действующие закономерности развития современного общества, можно констатировать значительное увеличение сфер деятельности, в которых применяется искусственный интеллект (ИИ). При этом очевидно, что выполняя многогранные задачи, делегированные людьми, ИИ самостоятельно включается в общественные отношения, становясь зачастую их неотъемлемой частью [2; 3; 6; 9; 17; 21; 26; 27].
Кроме того, в настоящее время ИИ начинает превосходить человека по многим параметрам, к примеру, побеждает людей в авиационных симуляторах, а особенно в воздушном бою [23]; автомобили, снабжённые системами ИИ, лишены правового нигилизма, неосведомлённостью об изменениях законодательства, субъективных ошибок в управлении [24]; благодаря самообучающимся алгоритмам ИИ может существенно повыситься качество медицинского обслуживания вне зависимости от наличия транспортных коммуникаций, инфраструктуры, удалённости больного и его материального состояния [30].
На современном этапе развитие научно-технической революции с цифровиза-цией различных сфер деятельности входит в новое русло . Цифровые технологии сделали огромный скачок вперёд за счёт разработок в области ИИ Потенциал использования ИИ в ряде областей человеческой деятельности достаточно высок, но, с правовой точки зрения, его изучение признаётся недостаточным
Нормативно-правовое регулирование процессов создания и применения ИИ является сегодня важнейшим элементом цифровой экономики
На протяжении последних нескольких лет наблюдаются попытки государственного регулирования ИИ как в России, так и в других странах [16]. Сегодня общепризнано, что в практике применения ИИ отсутствуют должные международно-правовая и национальная нормативные основы Вопросы применения и использования ИИ частично регулируются в Федеративной Республике Германии, Республике Кореи, Французской Республике. Понятие «искусственный интеллект» включено в некоторые нормативные акты стратегического характера, однако вопросы правового ре-
гулирования при использовании ИИ находятся всё ещё в стадии решения, тогда как внедрение ИИ в жизнедеятельность человека идёт активными темпами (это касается беспилотных летательных аппаратов, прогнозирования диагноза больных и пр . ). Более того, на правовое регулирование ИИ направлена целая группа политических1, нормативных правовых актов2 и распорядительных документов3 Президента Российской Федерации и органов государственной власти4.
В качестве причины отставания развития правовой системы от плодов внедрения ИИ В . А. Шестак и А. Г. Волеводз называют «отставание теории права от научно-технического прогресса: отсутствие правовой регламентации в области взаимодействия человека и ИИ, проблемы морали,безопасности, правосубъектности, ответственности, неприкосновенности частной жизни» [18].
Правосубъектность ИИ необходимо определять с учётом всестороннего анализа данного явления. Согласно определению И В Понкина и А И Редькиной, «искусственный интеллект - это искусственная сложная кибернетическая компьютерно-программно-аппаратная система (электронная, в т ч виртуальная, электронно-механическая, био-
Послание Президента Российской Федерации В . В . Путина Федеральному Собранию Российской Федерации от 20.02.2019 // Российская газета. 2019; Послание Президента Российской Федерации В В Путина Федеральному Собранию Российской Федерации от 15.01.2020 // Российская газета. 2020. № 7 (8061).
2 Указ Президента Российской Федерации от 10.10. 2019. № 490 «О развитии искусственного интеллекта в Российской Федерации» // Собрание законодательства РФ . 2019 . № 41. Ст. 5700.
3 Перечень поручений по итогам совещания по вопросам развития технологий в области искусственного интеллекта (утв Президентом РФ 12 06 2019 № Пр-1030) // Официальный сайт Президента РФ. URL: http://www.kremlin.ru/acts/assignments/ orders/60748 (дата обращения: 20.01.2020) .
4 Дорожная карта развития «сквозной» цифровой технологии «Нейротехнологии и искусственный интеллект» // Министерство цифрового развития, связи и массовых коммуникаций Российской Федерации: [сайт]. URL: https://digital.gov.ru/ru/ documents/6658 (дата обращения: 20 01 2020)
электронно-механическая или гибридная) с когнитивно-функциональной архитектурой и собственными или релевантно доступными (приданными) вычислительными мощностями необходимых ёмкостей и быстродействия, обладающая:
• свойствами субстантивности (включая определенную субъектность, в т ч как интеллектуального агента) и в целом автономности, а также элаборативной (имеющей тенденцию совершенствования) операциональности;
• высокоуровневыми возможностями воспринимать (распознавать, анализировать и оценивать) и моделировать окружающие образы и символы, отношения, процессы и обстановку (ситуацию), самореферентно принимать и реализовывать свои решения, анализировать и понимать свои собственные поведение и опыт, самостоятельно моделировать и корригировать для себя алгоритмы действий, воспроизводить (эмулировать) когнитивные функции, в т ч связанные с обучением, взаимодействием с окружающим миром и самостоятельным решением проблем;
• способностями самореферентно адаптировать своё собственное поведение, автономно глубинно самообучаться (для решения задач определённого класса или более широко), осуществлять омологацию себя и своих подсистем, в т ч вырабатывать омологиро-ванные «языки» (протоколы и способы) коммуницирования внутри себя и с другими ИИ, субстантивно выполнять определённые антропоморфно-эмулирующие (конвенционально относимые к прерогативе человека (разумного существа)) когнитивные (в т ч познавательно-аналитические и творческие, а также связанные с самоосознанием) функции, учитывать, накапливать и воспроизводить (эмулировать) опыт (в т. ч. человеческий)» [13].
Если руководствоваться более ёмкими характеристиками ИИ, для правового регламентирования данного явления можно опереться на определение, данное
О . А. Ястребовым, который понимает под ИИ «результат деятельности человека, который представляет собой сложную совокупность коммуникационных и технологических взаимосвязей, обладающую способностью логически мыслить, управлять своими действиями и корректировать свои решения в случае изменения внешних условий» [20].
ВОПРОСЫ ОТВЕТСТВЕННОСТИ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА
Если говорить об ответственности ИИ, уровень дискуссии здесь будет чрезвычайно высоким Но превалирующим мнением является то, что меры юридической ответственности просто не применимы к нему. Так, Г. Халлеви касательно вопроса возможности привлечь ИИ к уголовной ответственности писал, что во главу угла здесь должна быть поставлена субъективная сторона правонарушения, которой у ИИ нет и быть не может по той причине, что последний не может осознавать последствия своих вредных действий [4; 25].
Важным также является высказывание главного исполнительного директора Института искусственного интеллекта (А12)1 О . Этциони2, который считает следующее: ИИ как автономная система должен быть подчинён «полному спектру законов, которые применяются к её человеческому оператору» [18]. Рассматриваемое правило должно быть применимо к частным, корпоративным и государственным системам, при этом универсализации требуют и нормы международного права, чтобы у человека отсутствовала возможность утверждать, что «автономная система сделала то, что он не мог понять или предвидеть» [18].
Миссия Института искусственного интеллекта (AI2) состоит в том, чтобы внести свой вклад в развитие человечества с помощью высокоэффективных исследований и разработок в области искусственного интеллекта. URL: https://allenai.org (дата обращения: 20.01.2020) .
Интервью: Орен Этциони - директор Института искусственного интеллекта им . Аллена // HardNews24: [сайт]. URL: https://hardnews24 . ru/intervyu-oren-et-cioni-direktor-instituta-iskusstvennogo-intellekta-im-allena/ (дата обращения: 20.01.2020).
Таким образом, исследователи придают особое значение ответственности создателя за незаконное поведение ИИ Здесь важным является следующий момент: автономная система, вступая в общение, должна информировать оппонента, что она не является человеком, поскольку с ростом и усложнением возможностей программ-ботов людям необходимо вовремя идентифицировать системы, наделённые ИИ .
У российских правоведов указанный выше подход также получил признание. Так, в нашей стране ответственность за неправомерные последствия функционирования промышленных роботов полностью лежит на их владельцах, производителях или операторах [19]. Сходное положение включают и рекомендации Парламентской ассамблеи Совета Европы3, где отмечено, что человек отвечает за действия ИИ без учёта обстоятельств произошедшего, при этом не имеют правового значения ссылки на независимость принятых юнитами ИИ решений [22]. С учётом вышеозначенного, международное право должно выполнять роль координатора развития правового регулирования, что должно повлечь за собой разработку руководящих принципов и восполнить правовые пробелы в рассматриваемой области [28].
Необходимо сказать, что усложнение, децентрализация, автономизация технологий ИИ создают ряд проблем для человека, осуществляющего контроль над такими технологиями: человек, даже управляющий системой ИИ, не всегда способен полностью контролировать все действия и реакции системы, а тем более предугадать её поведение Подобная ситуация, соответственно, нуждается в выработке единого подхода к определению возможной правосубъектности, а также юридической ответственности ИИ Игнорировать данную ситуацию уже
3 Technological Convergence, Artificial Intelligence and Human Rights. Recommendation of Parliamentary Assembly of the Council of Europe: [Электронный ресурс]. 2017. № 2102. URL: https:// assembly.coe.int/nw/xml/XRef/Xref-DocDetails-EN.asp?FileID=23726&lang=EN (дата обращения: 20 01 2020)
не представляется возможным, т к ИИ реально овеществлён (материализован, реализован), обладает способностью к анализу и составлению поведенческого алгоритма и, следовательно, должен быть регламентирован с позиции права
В литературе указан ряд юридических аспектов использования ИИ [5]. Так, не разработана единая юридическая дефиниция данного понятия, и это выступает сдерживающим фактором в решении различных юридических вопросов, касающихся определения правосубъектности ИИ, ответственности за вред, который причинён в процессе его применения, использования, технических регламентов работы ИИ
Имеет место также проблема признания ИИ субъектом права. Здесь предлагается 2 варианта: понимать ИИ технического средства, имеющего правовой режим вещи, или позиционировать ИИ как «электронное лицо» аналогично понятию «юридическое лицо» По нашему мнению, и первая, и вторая научные позиции имеют ряд недостатков, т к у рассматриваемой категории отсутствует способность к мышлению и принятию самостоятельных решений, и полностью уподобиться человеку он не может
Только решив вышеуказанный вопрос, можно сформировать модель правового регулирования, включающую ряд правоотношений с участием ИИ и возложением на него юридической ответственности Однако общеизвестно, что субъекту права необходимо обладать волей, но при этом также бесспорен тот факт, что такой способности у ИИ нет Все сказанное позволяет трактовать правосубъектность ИИ как фикцию
Однако не лишена актуальности проблема ответственности за вред, причинённый таким ИИ Ответственным за такой вред, как считают правоведы, может выступать:
• обладатель прав на устройство, снабжённое ИИ;
• разработчик программного обеспечения;
• оператор, обслуживающий ИИ [5].
Интересным является следующий факт: ИИ достаточно активно проявляет себя в юридической профессии Так, в соответствии с алгоритмом, он способен к выполнению ряда типичных юридических действий: составлению сделок, подготовке исковых заявлений и пр. , — и эта способность ИИ уже взята на вооружение крупными российскими банками [5]
Несмотря на то, что ИИ пока неспособен разрешать нестандартные ситуации из-за отсутствия у него определённых личностных характеристик, ИИ может сформулировать, а также применить принципы права Исследователи из США провели анализ решений ЕСПЧ ИИ и пришли к выводу, что он обладает способностью предсказывать решения судов [5]
На международном уровне попытки правового регулирования статуса ИИ нашли своё отражение в Резолюции о правовом статусе ИИ, принятой в 2017 г. Европейским парламентом1 В документе отражены общие положения, освещающие меру и степень юридической ответственности за вред, который причиняет ИИ Например, п АС резолюции включает вопрос о том, насколько необходимо определить правовую природу робота, и в какой степени она соответствует правовым понятиям
П. ЛБ резолюции включает информацию о недостатке стандартных правил несения юридической ответственности производителем робота, если робот может самостоятельно принимать решения Аналогичный вывод содержится и в п . ЛО резолюции касаемо договорной ответственности в случае наделения робота возможностью самостоятельного выбора контрагента, обсуждения условий договора и его заключения2
1 European Parliament resolution of 16 February 2017 with recommendations to the Commission on Civil Law Rules on Robotics (2015/2103(INL) // European Parliament: [сайт]. URL: https://www. europarl. europa. eu/doceo/document/TA-8-2017-0051_EN . html (дата обращения: 20.01.2020) .
2 European Parliament resolution of 16 February 2017 with recommendations to the Commission on Civil Law Rules on Robotics (2015/2103(INL) // European Parliament: [сайт] URL: https://www europarl europa eu/doceo/document/TA-8-2017-0051_EN . html (дата обращения: 20 01 2020)
V4100y
ВОПРОСЫ ПРАВОСУБЪЕКТНОСТИ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА
Правоспособность напрямую взаимосвязана с дееспособностью субъектов права В этой связи представляет интерес вопрос, касающийся выделения видов дееспособности носителей ИИ Указанная система была предложена В П Камышанским и А В Корецким, по мнению которых необходимо различать 3 вида дееспособности: специальную, ограниченную и отсутствие дееспособности [8]
Можно согласиться с точкой зрения авторов системы в том, что дифференциация дееспособности носителей ИИ предполагает определённое техническое регулирование и классификацию носителей ИИ в зависимости от степени развитости их нейронных сетей [8]
В литературе существует мнение, что ИИ следует отнести не к субъектам, а к квазисубъектам права [14]. Так, Е. В. Пономарева в своей диссертационной работе, обосновывая критерии разграничения субъекта и квазисубъекта права, пришла к выводу, что ИИ, а также роботизированные автономные системы не способны быть субъектами права Они не обладают волей в правовом смысле, не имеют собственных интересов, не могут формировать субъективное отношение к совершаемым деяниям, нести юридическую ответственность по причине отсутствия чувства вины [14].
К одному из критериев автор относит потенциальную или же реальную возможность реализовать субъективные права и юридические обязанности, а также совершать правомерные и противоправные поступки Она исследует ст 29 Международной модельной конвенции о робототехнике «Роботы как субъекты права», где «сформулировано положение о том, что роботы могут вступать в гражданский оборот как самостоятельные лица, что предполагает определённую степень их автономии и способность приобретать субъективные права и юридические обязанности» Причина этого в том, что последнее, в отличие от физического лица,
выступает как производный субъект права, юридическая конструкция, созданная посредством правовой мысли [14].
В определении правосубъектности ИИ также важен и личностный аспект: Е . В . Пономарева поддерживает здесь С М Солемана, который настаивает на том, что роботы не могут быть признаны субъектами права, т к не являются личностями [29]. Также некоторые авторы отмечают, что определения правового статуса робота и юридического лица практически идентичны, т к правовой статус того и другого, по существу, есть юридическая фикция [10; 15].
Ряд исследователей обосновывает аргументы в защиту признания правосубъектности роботов и ИИ По мнению В В Архипова, юридическое лицо есть имущество, правосубъектность которого признана на законодательном уровне, поэтому вполне логично наделить робота или ИИ статусом субъекта права по той причине, что оба эти явления могут выступать имуществом, обладающим из-за функциональных особенностей право-субъектностью1 К тому же робот-агент обладает «обособленным имуществом, отвечает по своим обязательствам, может от своего имени приобретать и осуществлять гражданские права и нести гражданские обязанности» [1]
Есть мнение, что оба рассматриваемых понятия уже в достаточной степени автономны и могут посредством своих действий приобретать ряд субъективных прав и юридических обязанностей [7]. Свои слова авторы подтверждают необходимостью контроля над деятельностью ИИ, способного к автономным действиям На этом основании было высказано предложение о внесении поправок в Декларацию прав человека, а также о дополнении её правами и обязанностями робота. Контролировать
1 Архипов В . В . Юридические аспекты робототехники . Несколько слов о роботах с юридической точки зрения: правосубъектность. // Адвокатская газета [сайт]. URL: https://www.advgazeta. ru/mneniya/ yuridicheskie-aspekty-robototekhniki/ (дата обращения: 20 01 2020)
это возможно, если ИИ и роботы будут иметь юридические обязанности Но здесь речь идёт об ограниченной, подконтрольной автономии, что не соответствует правовым качествам субъекта права
По мнению П . М. Морхата, «правосубъектность ИИ должна определяться его возможностями и функционально-целевым назначением, а потому ИИ может существовать в правовом пространстве и в качестве объекта права, и в качестве электронного лица, наделённого полной правосубъектностью» [11].
Следует признать, что ИИ постоянно должен контролироваться человеком, собственником, пользователем, который, соответственно, и реализует как субъективные права, так и юридические обязанности, совершая правомерные или противоправные поступки Таким образом, пользователи или собственники приобретают ряд прав и обязанностей посредством рассматриваемого объекта, обладающего ИИ [14].
Ещё один аспект, рассматриваемый правоведами, - это причинение смерти роботами Возрастающая автоматизация производственных процессов имеет печальную статистику: всё больше и больше происходит случаев гибели людей, в которых виновны роботы, и за последний период причинение смерти роботами на производстве произошло уже более 10 раз Причина указанных несчастных случаев -нарушение корректного функционирования робота, его работы вопреки заданным настройкам. Квалификация данных происшествий обычно строится на том, что данное событие - несчастный случай, об уголовной ответственности речи не идёт Автомобильные катастрофы, произошедшие из-за сбоя в работе самоуправляемых автомобилей, смерти на промышленных предприятиях, виновниками которых стали роботы, подтверждают такой уровень автономии роботизированных систем, при котором исключается контроль над их функционированием, исключается, соответственно, и юридическая ответствен-
ность их разработчиков или собственников [14].
Уже сегодня существует проблема, связанная с установлением лица, виновного в совершении правонарушения, и возложением ответственности за сбой интеллектуальной системы Сегодня, если гибель людей происходит по вине сбоя в роботизированных системах, выводы делаются следующие: виновным становится погибшее лицо, т к оно не соблюдало правила техники безопасности [14].
Взяв за основу мультимодальный подход к пониманию правосубъектности ИИ, В П Морхат произвёл разработку системы юридической ответственности за совершение правонарушений [11].
Субъект права также должен обладать собственными правовыми интересами, потребностями, правовыми устремлениями, притязаниями Как в случае со способностями к принятию правовых решений, системе ИИ для реализации собственных «правовых интересов» необходимо иметь автономную правовую волю, определяющую и формирующую такие интересы Однако наличие правовой воли у систем с ИИ не признаётся ни законодателем, ни правовым сообществом, и механизм её формирования не определён . Чтобы утвердить самостоятельные правовые интересы, нужно разграничение интересов таких субъектов, как разработчик, собственник или владелец интеллектуальной системы и собственных «интересов» указанной системы. Утилитарность цели создания систем с ИИ позволяет задать вопрос: есть ли реальная необходимость для юридической науки и практики осуществлять защиту собственных правовых интересов ИИ от правовых интересов лиц, которые создали их, что даст возможность признать правосубъектность систем с ИИ
В свою очередь, нет оснований признавать правосубъектность систем с ИИ с позиции их социально-правовой ценности, т. к . они не могут самостоятельно определить и установить социально-правовые ценности
V102y
ЗАКЛЮЧЕНИЕ
Идея признать систему с ИИ в качестве субъекта права противоречит таким представлениям о субъекте права, как социально-правовая ценность, достоинство, автономная правовая воля, а также вступает в противоречие с составом правоотношения, составом правонарушения и ничтожна в рамках института представительства При этом у ИИ отсутствуют необходимые и достаточные признаки субъекта права, в частности, у него нет потенциальной возможности к самостоятельному приобретению и реализации субъективных прав и юридических обязанностей, к несению юридической ответственности, самостоятельному принятию правовых решений, у него нет собственных правовых интересов
ЛИТЕРАТУРА
1. Архипов В . В . , Наумов В . Б . Искусственный интеллект и автономные устройства в контексте права: о разработке первого в России закона о робототехнике // Труды СПИИ РАН . 2017. Т. 6. № 55 . С.46-62.
2 . Бегишев И . Р , Бикеев И . И . Преступления в сфере обращения цифровой информации. Казань,
2020. 300 с .
3 . Бегишев И . Р , Хисамова З . И . Искусственный интеллект и робототехника: теоретико-правовые
проблемы разграничения понятийного аппарата // Вестник Удмуртского университета. Серия: Экономика и право . 2020. Т. 30 . № 2 . С.130-138. 4. Бегишев И. Р , Хисамова З . И. Криминологические риски применения искусственного интеллекта //
Всероссийский криминологический журнал. 2018 . Т. 12 . № 6 . С. 767-775. 5 . Васильев А. А. , Шпоппер Д. , Матаева М. Х. Термин «искусственный интеллект» в российском праве: доктринальный анализ // Юрислингвистика. 2018 . № 7-8 . С. 35-44.
6. Денисов Н. Л . Концептуальные основы формирования международного стандарта при установлении уголовной ответственности за деяния, связанные с искусственным интеллектом // Международное уголовное право и международная юстиция . 2019 . № 4. С. 18-20 .
7. Ибрагимов Р, Сурагина Е. Право машин. Как привлечь робота к ответственности // Корпоративный юрист 2017 № 11 С 10-17
8 Камышанский В П , Корецкий А В Понятие и правовой статус носителей искусственного интеллекта // Власть Закона. 2019 . № 1 (37). С. 42-50.
9 . Косьяненко Е. М. Применение норм интеллектуального права при использовании технологий
искусственного интеллекта // Бизнес, менеджмент и право . 2019 . № 3 (43). С. 25-29.
10 . Морхат П. М. К вопросу о правосубъектности «электронного лица» // Юридические исследова-
ния . 2018 . № 4. С. 1-8 .
11 Морхат П М Правосубъектность искусственного интеллекта в сфере права интеллектуальной собственности: гражданско-правовые проблемы: дис . ... докт. юрид. наук. М . , 2018. 420 с .
12 . Морхат П . М. Правосубъектность юнитов искусственного интеллекта . Гражданско-правовое ис-
следование. М. : ЮНИТИ-ДАНА, 2018 . 112 с.
13 . Понкин И. В . , Редькина А. И . Искусственный интеллект с точки зрения права // Вестник РУДН .
Серия: Юридические науки. 2018 . Т. 22 . № 1. С. 91-109 . Э01: 10.22363/2313-2337-2018-22-1-91-109
14 Пономарева Е В Субъекты и квазисубъекты права: теоретико-правовые проблемы разграничения: дис . канд юрид наук Екатеринбург, 2019 208 с
15 . Серова О . А. Роботы как участники цифровой экономики: проблемы определения правовой
и устремлений и пр . Напротив, идея наделить ИИ правосубъектностью может сделать человека заложником собственных идей, зависимым от ИИ Кроме того, возможны и пробелы в праве, позволяющие избежать юридической ответственности виновному лицу за совершённое им правонарушение
По мнению П М Морхата, отечественное и зарубежное законодательство сегодня «явно не готово к столь активному внедрению технологий и систем ИИ в жизнь человека, в экономику, в юридическую практику» [12]. Таким образом, в правовой науке и практике вопрос правосубъектности ИИ сегодня остаётся открытым [17].
Статья поступила в редакцию 23.03.2020.
Vioy
природы // Гражданское право . 2018 . № 3 . С. 22-24.
16. Хисамова З. И. , Бегишев И . Р. Правовое регулирование искусственного интеллекта // Baikal Research Journal. 2019 . Т. 10 . № 2 . C. 19 .
17. Хисамова З. И. , Бегишев И . Р. Уголовная ответственность и искусственный интеллект: теоретические и прикладные аспекты // Всероссийский криминологический журнал. 2019 . Т. 13 . № 4.
18 . Шестак В. А. , Волеводз А. Г. Современные потребности правового обеспечения искусственно-
го интеллекта: взгляд из России // Всероссийский криминологический журнал. 2019 . Т. 13 . № 2 . C. 197-206. DOI: 10.17150/2500-4255.2019.13(2).197-206
19 . Ястребов О . А . Искусственный интеллект в правовом пространстве: концептуальные и теорети-
ческие подходы // Правосубъектность: общетеоретический, отраслевой и международно-правовой анализ: сб . материалов. М. : Статут, 2017. С. 271-283.
20 . Ястребов О . А. Правосубъектность электронного лица: теоретико-методологические подходы //
Труды Института государства и права Российской академии наук. 2018 . Т. 13 . № 2 . С. 36-55. 21. Bikeev I . I . , Kabanov P. A. , Begishev I . R. , Khisamova Z. I . Criminological Risks and Legal Aspects of Artificial Intelligence Implementation // In Proceedings of the International Conference on Artificial Intelligence, Information Processing and Cloud Computing. New York: Association for Computing Machinery, 2019 . P. 1-7.
22 . Bostrom N . Superintelligence: Paths, Dangers, Strategies . Oxford: Oxford University Press, 2014. 390 p.
23 . Ernest N. , Carroll D. , Schumacher C. , Clark M. , Cohen K. , Lee G . Genetic Fuzzy based Artificial
Intelligence for Unmanned Combat Aerial Vehicle Control in Simulated Air Combat Missions // Journal of Defense Management. 2016. Vol. 6. № 1. P. 1-7. DOI: 10.4172/2167-0374.1000144 24. Gerla M. , Lee E. , Pau G . , Lee U. Internet of vehicles: From intelligent grid to autonomous cars and vehicular clouds // 2014 IEEE World Forum on Internet of Things (WF-IoT). 2014. P. 241-246. DOI: 10 ,1109/WF-IoT.2014. 6803166
25 . Hallevy G . Liability for Crimes Involving Artificial Intelligence Systems . Dordrecht : Springer, 2015. 262 p.
26 Khisamova Z I , Begishev I R , Gaifutdinov R R On Methods to Legal Regulation of Artificial Intelligence in the World // International Journal of Innovative Technology and Exploring Engineering. 2019 . Vol. 9 . № 1. P. 5159-5162.
27 . Khisamova Z . I . , Begishev I . R . , Sidorenko E . L. Artificial Intelligence and Problems of Ensuring Cyber
Security // International Journal of Cyber Criminology. 2019 . Vol. 13 . № 2 . P. 564-577. DOI: 10. 5281/ zenodo 3709267
28 . McCarthy J. , Minsky M. L. , Rochester N. , Shannon C. E. A Proposal for the Dartmouth Summer
Research Project on Artificial Intelligence. August 31, 1955 // AI Magazine. 2006. Vol. 27. № 4. P. 12-14.
29 . Solaiman S . M. Legal personality of robots, corporations, idols and chimpanzees: a quest for legitimacy //
Artificial Intelligence and Law. 2017. Vol. 25 . № 2 . P. 155-179. DOI: 10,1007/s10506-016-9192-3
30 . White P. J. F. , Podaima B . W. , Friesen M . R . Algorithms for Smartphone and Tablet Image Analysis for Healthcare Applications // IEEE Access. 2014. Vol. 2 . P 831-840.
1. Arkhipov V. V. , Naumov V. B. [Artificial intelligence and autonomous devices in the context of law: on the development of the first law on robotics in Russia]. In: Works of St. Petersburg Institute for Informatics and Automation of the Russian Academy of Sciences, 2017, vol . 6, no . 55, pp . 46-62.
2 . Begishev I . R . , Bikeev I . I . Prestupleniya v sfere obrashcheniya tsifrovoi infomatsii [Crimes in the Sphere
of Digital Information]. Kazan, 2020. 300 p.
3 . Begishev I . R . , Khisamova Z . I . [Artificial intelligence and robotics: theoretical and legal problems of
the delimitation of the conceptual apparatus]. In: Vestnik Udmurtskogo universiteta. Seriya: Ekonomika ipravo [Bulletin of Udmurt University. Series: Economics and Law], 2020, vol. 30, no . 2, pp . 130-138. 4. Begishev I . R . , Khisamova Z . I . [Criminological risks of using artificial intelligence]. In: Vserossiiskii kriminologicheskii zhurnal [Russian Journal of Criminology], 2018, vol. 12, no. 6, pp. 767-775.
5 . Vasilev A . A . , Shpopper D. , Mataeva M . K. [The term «artificial intelligence» in the Russian law: doctrinal
analysis]. In: Yurislingvistika, 2018, no. 7-8, pp. 35-44.
6 . Denisov N . L. [Conceptual foundations of international standard for the criminalization of acts related to
artificial intelligence]. In: Mezhdunarodnoe ugolovnoepravo i mezhdunarodnaya yustitsiya [International Criminal Law and International Justice. ], 2019, no. 4, pp. 18-20 .
С 564-574.
REFERENCES
7 . Ibragimov R. , Suragina E. [The right of machines. How to make a robot liable]. In: Korporativnyi yurist
[Corporate Lawyer], 2017, no. 11, pp. 10-17.
8 . Kamyshansky V. P. , Koretsky A . V. [The concept and legal status of carriers of artificial intelligence]. In:
VlastZakona [The Rule of Law], 2019, no. 1 (37), pp. 42-50.
9 . Kosyanenko E. M. [The application of standards intellectual property rights when using artificial
intelligence technologies]. In: Biznes, menedzhment i pravo [Business, Management and Law], 2019, no 3 (43), pp 25-29
10 . Morkhat P M. [The question of the personality of the «e-person»]. In: Yuridicheskie issledovaniya [Legal
Studies], 2018, no. 4, pp. 1-8 . 11. Morkhat P M . Pravosubektnost iskusstvennogo intellekta v sfere prava intellektualnoi sobstvennosti: grazhdansko-pravovyeproblemy: dis. ... dokt. yurid. nauk [The legal personality of artificial intelligence in the field of intellectual property law: civil law problems: D. thesis in Law]. Moscow, 2018. 420 p.
12 . Morkhat P M. Pravosubektnost yunitov iskusstvennogo intellekta. Grazhdansko-pravovoe issledovanie
[Legal personality of the units of artificial intelligence . Civil Law Study]. Moscow, YUNITI-DANA Publ . , 2018 . 112 p.
13 . Ponkin I . V. , Redkina A . I . [Artificial intelligence from legal perspective]. In: Vestnik RUDN. Seriya:
Yuridicheskie nauki [Bulletin of Peoples' Friendship University of Russia. Series: Jurisprudence], 2018, vol. 22, no. 1, pp. 91-109 . DOI: 10.22363/2313-2337-2018-22-1-91-109 14. Ponomareva E. V. Subekty i kvazisubektyprava: teoretiko-pravovyeproblemy razgranicheniya: dis.... kand. yurid. nauk [Subjects and quasi-subjects of law: theoretical and legal problems of differentiation: PhD thesis in law]. Yekaterinburg, 2019. 208 p. 15 . Serova O. A . [Robots as participants in digital economy: the problem of definition of legal nature]. In: Grazhdanskoepravo [Civil Law], 2018, no. 3, pp. 22-24.
16. Khisamova Z. I . , Begishev I . R. [Legal regulation of artificial intelligence]. In: Baikal Research Journal, 2019, vol. 10, no. 2, pp. 16.
17. Khisamova Z. I . , Begishev I . R. [Criminal liability, and artificial intelligence: theoretical and applied aspects]. In: Vserossiiskii kriminologicheskii zhurnal [Russian Journal of Criminology], 2019, vol. 13, no 4, pp 564-574
18 . Shestak V. A . , Volevodz A . G . [Modern requirements of artificial intelligence legal security: a view from
Russia]. In: Vserossiiskii kriminologicheskii zhurnal [Russian Journal of Criminology], 2019, vol. 13, no. 2, pp. 197-206. DOI: 10.17150/2500-4255.2019.13(2).197-206
19 . Yastrebov O. A . [Artificial intelligence in the legal space: conceptual and theoretical approaches]. In:
Pravosubektnost: obshcheteoreticheskii, otraslevoi i mezhdunarodno-pravovoi analiz [Legal Personality: General Theory, Branch and International Legal Analysis]. Moscow, Statut Publ. , 2017, pp. 271-283.
20 . Yastrebov O. A . [The electronic personality of the person: theoretical and methodological approaches].
In: Trudy Instituta gosudarstva i prava Rossiiskoi akademii nauk [Works of the Institute of State and Law of the Russian Academy of Sciences], 2018, vol. 13, no. 2, pp. 36-55.
21 Bikeev I I , Kabanov P A , Begishev I R , Khisamova Z I Criminological Risks and Legal Aspects of Artificial Intelligence Implementation. In: In Proceedings of the International Conference on Artificial Intelligence, Information Processing and Cloud Computing. New York, Association for Computing Machinery, 2019, pp 1-7
22 . Bostrom N. Superintelligence: Paths, Dangers, Strategies. Oxford: Oxford University Press, 2014. 390 p.
23 Ernest N , Carroll D , Schumacher C , Clark M , Cohen K , Lee G Genetic Fuzzy based Artificial Intelligence for Unmanned Combat Aerial Vehicle Control in Simulated Air Combat Missions In: Journal of Defense Management, 2016, vol . 6, no . 1, pp. 1-7 . DOI: 10.4172/2167-0374.1000144
24 Gerla M , Lee E , Pau G , Lee U Internet of vehicles: From intelligent grid to autonomous cars and vehicular clouds. In: 2014 IEEE World Forum on Internet of Things (WF-IoT), 2014, pp. 241-246. DOI: 10 .1109/WF-IoT.2014. 6803166
25 . Hallevy G . Liability for Crimes Involving Artificial Intelligence Systems. Dordrecht, Springer, 2015. 262 p.
26 Khisamova Z I , Begishev I R , Gaifutdinov R R On Methods to Legal Regulation of Artificial Intelligence in the World. In: International Journal of Innovative Technology and Exploring Engineering, 2019, vol. 9, no. 1, pp. 5159-5162.
27 . Khisamova Z. I . , Begishev I . R . , Sidorenko E. L. Artificial Intelligence and Problems of Ensuring Cyber
Security. In: International Journal of Cyber Criminology, 2019, vol. 13, no . 2, pp . 564-577. DOI: 10.5281/ zenodo 3709267
28 . McCarthy J. , Minsky M . L. , Rochester N . , Shannon C E . A Proposal for the Dartmouth Summer Research Project on Artificial Intelligence. August 31, 1955. In: AI Magazine, 2006, vol. 27, no. 4, pp. 12-14.
29. Solaiman S. M. Legal personality of robots, corporations, idols and chimpanzees: a quest for legitimacy. In: Artificial Intelligence and Law, 2017, vol. 25, no. 2, pp. 155-179. DOI: 10.1007/sl0506-016-9192-3
30. White P. J. F., Podaima B. W., Friesen M. R. Algorithms for Smartphone and Tablet Image Analysis for Healthcare Applications. In: IEEE Access, 2014, vol. 2, pp. 831-840.
31
ИНФОРМАЦИЯ ОБ АВТОРАХ
Хисамова Зарина Илдузовна - кандидат юридических наук, начальник отделения планирования и координации научной деятельности научно-исследовательского отдела Краснодарского университета Министерства внутренних дел Российской Федерации; e-mail: alise89@inbox. ru
Бегишев Ильдар Рустамович - кандидат юридических наук, заслуженный юрист Республики Татарстан, старший научный сотрудник Казанского инновационного университета им В Г Тимирясова; e-mail: begishev@mail . ru
INFORMATION ABOUT THE AUTHORS
Zarina I. Khisamova - PhD in Law, head of the Department of Planning and Coordination of Research Activities, Research Department, Krasnodar University of the Ministry of Internal Affairs of the Russian Federation;
e-mail: alise89@inbox. ru
Ildar R. Begishev - PhD in Law, Honored Lawyer of the Republic of Tatarstan, senior researcher, Kazan Innovative University named after V. G . Timiryasov; e-mail: begishev@mail . ru
ПРАВИЛЬНАЯ ССЫЛКА НА СТАТЬЮ
Хисамова З. И . , Бегишев И . Р Сущность искусственного интеллекта и проблема определения правосубъектности // Вестник Московского государственного областного университета . Серия: Юриспруденция. 2020. № 2 . С 96-106. DOI: 10.18384/2310-6794-2020-2-96-106
FOR CITATION
Hisamova Z . I . , Begishev I . R . The Nature of Artificial Intelligence and the Problem of Legal Personality Determination. In: Bulletin of Moscow Region State University. Series: Jurisprudence, 2020, no . 2, рр . 96-106. DOI: 10.18384/2310-6794-2020-2-96-106
Vioey