Симонян Симон Араевич
преподаватель юридического факультета, Французский университет в Армении (Ереван), аспирант Университета Жан Мулэн Лион 3 (Франция)
Simonian Simon Arievich
lecturer at the faculty of law, French University of Armenia (Yerevan), PhD student at Jean Moulin University Lyon 3 (France)
E-mail: siinonyansiinonl995@mail.ru
Гамбарян Артур Сиреканович
доктор юридических наук, профессор, заведующий кафедрой теории и истории государства и права, Российско-Армянский университет (Ереван)
Ghambaiyan Art и г Sirekanovich
doctor of ¡aw, professor, head of the department of theory and history of state and law, Russian-Armenian university (Yerevan)
E-mail: artir. gh ambaryan@gniail.com
Необходимость и проблемы правосубъектности искусственного интеллекта
Necessity and problems of legal personality of artificial intelligence
Аннотация. В статье рассматривается вопрос необходимости правосубъектности искусственного интеллекта. Искусственный интеллект отличается от других объектов права своей автономностью и способностью принимать рациональные решения. В силу таких качеств, традиционные нормы разных отраслей права могут быть неприменимы к нему. В этом контексте, соавторы анализируют совместимость разных моделей правосубъектности с искусственным интеллектом.
Ключевые слова: искусственный интеллект, правосубъектность, автономность, юридическое лицо
Abstract. The article is devoted to the issue of the necessity of legal personality of artificial intelligence. Due to its autonomy and ability to make rational decisions, artificial intelligence differs from other legal entities. For this reason, traditional norms of different branches of law may be Inapplicable to it. In this context, the co-authors analyze the compatibility of different models of legal personality with artificial intelligence.
Keywords: artificial Intelligence, legal personality, autonomy, legal persons
Под искусственным интеллектом следует понимать информационные системы, которые выполняют задачи в изменяющихся и непредсказуемых обстоятельствах без значительного человеческого надзора или могут учиться на собственном опыте и повышать свою производительность1. Это системы, которые работают, пытаясь дублировать или имитировать человеческое мышление2. Чтобы оградить исследуемую тему от всяких мифов, надо отметить, что функционирование искусственного интеллекта базируется на обрабатывании данных (в том числе — персональных) информационными алгоритмами, что предполагает наличие предопределения принципов его функционирования человеком.
Однако, связи со способностью этих юнитов принимать решения, которые не всегда предсказуемы и понятны для человека, становится всё более сложно приписывать последствия действий этих юнитов
1 H.R.4625 — Future of Artificial Intelligence Act of 2017
2 André R. Bertrand, «Conditions de la protection par le droit d'auteur», Dalloz, 2010,103.27
их программисту или пользователю, что подразумивает, что юнит искусственного интеллекта отличается от других объектов права. Автономность, эффективность и непредсказуемость последнего стали почвой для юридической общественности начать исследования о возможности, необходимости и рисков признания правосубъектности искусственного интеллекта.
Данная тема, будучи одним из противоречивых и актуальных вопросов права, исследуется французскими1, русскими2 и американскими юристами3. Среди них есть те, кто находят в нем возможность4, так как другие — против правосубъектности роботов6. Актуальность и распространенность темы выросла благодаря резолюции Парламента Евросоюза, согласно которой «по меньшей мере наиболее продвинутые автономные роботы могут создаваться как электронные лица и нести ответственность за причиненный ими ущерб в тех случаях, когда они принимают решения автономно или иным образом самостоятельно взаимодействуют с третьими лицами»6.
Учитывая факт, что различные категории наделены статусом субъекта права, правосубъектность можно считать техникой права, созданная для реализации конкретных целей, в виде присвоения прав и обязанностей7. Ради решения практических задач, право, кроме традиционных субъектов, вручает такой статус объектам материального мира. Например, признание правосубъектности реки Вангануи имело в качестве цели специфическую юридическую защиту природы8. Этот дебат был индицирован из-за опасности, которая представляла человеческая деятельность для экосистемы реки. Последняя, в свою очередь, представляла опасности для права на здоровье людей проживающих рядом с рекой. Согласно праву Новой Зеландии, представитель местной племени был наделен правом представления судебного иска против субъектов, чья деятельность представляла угрозу реки. Таким образом, река была признана субъектом права, а житель племени — его представителем.
Учитывая такую универсальность права, обсуждение вопроса правосубъектности юнита искусственного интеллекта становится все более уместным. Такой подход, a priori, может облегчить регулирование некоторых аспектов искусственного интеллекта, такие как, определение единственного должника по обязательствам по причинению вреда, определение субъекта, являющейся стороной договора заключенного роботом, принятие этических вопросов роботом итд.
Прежде всего, необходимо анализировать, являются ли характеры искусственного интеллекта достаточным фундаментом для признания правосубъектности последнего, а таковой является его автономность. Автономность понимается как способность определяться, выбирать, действовать свободно9. Она предполагает поведение искусственного интеллекта, которого нельзя полностью предвидеть. Такое качество искусственного интеллекта было признано Кассационным судом Франции. По делу «Google», сервис поисковой системы корпорации «Google», которая называется «Google Suggest », опубликовала фразы с надписью «Lyonnaise de Garantie мошенник» после того, как пользователь сайта решил найти сведения об этой фирме, из-за чего фирма подала судебный иск против «Google». По этому делу, суд признал, что «функциональность программы, которая генерирует критикуемую фразу, является результатом процесса, который является полностью автоматическим по своей работе и случайным по результатам, так что отображение таких слов исключает всякую волю оператора программы». Признание автономности искусственного интеллекта привела к отказу суда признать корпорацию «Google» виновной в клевете10.
Однако, непредсказуемость и автономность технологий не должны быть аргументами в пользу признания правосубъектности. В первую очередь, некоторые объекты права обладают такими же способностями, хотя их правосубъектность не принимается законодательством. Лучшыми примерами могут служить животные, которые, согласно закону, являются живыми и чувствительными существами11. В то же время, такое регулирование не означает, что они являются промежуточными категориями между объек-
1 MERABET, Sarmir, « Vers un droit de l'intelligence artificielle », thèse pour le doctorat en droit privé. Université d'Aix-Marseille, 2018 ; GUEGAN Guillaume, « L'élévation des robots a la vie juridique », 2016, Université Toulouse 1 Capitole (UT1 Capitole)
2 MOPXAT, Петр Мечиславович, «Правосубъектность искусственного интеллекта в сфере права интеллектуальной собственности: гражданско-правовые проблемы», Москва 2018, с. 420
3 HALLEVY, Gabriel, «Liability for Crimes Involving Artifcial Intelligence Systems», Springer, 2015
4 BENSOUSSAN, Alain, « La personne robot », Recueil Dalloz, 2017, page 2044
5 LOISEAU Grégoire, « La personnalité juridique des robots: une monstruosité juridique », La Semaine juridique — édition générale, n° 22, 2018, page 1040
6 Резолюция Европарламента от 16 февраля 2017 года 2015/2013(INL) P8_TA-PROV(2017)0051, включает текст Хартии робототехники
7 H. Kelsen, « Théorie pure du droit », traduit par H. Thévenaz, Édition de la Braconnière, 2e éd., 1988, p. 113-114.
B DAVID Victor, « La nouvelle vague des droits de la nature. La personnalité juridique reconnue aux fleuves Whanganul, Gange et Yamuna », Revue juridique de l'environnement, volume 42,2017, page 411
9 Trésor de la langue française, V. "autonomie", http://stella.atilf.fr/Dendien/scripts/tlfiv5/visusel.exe711;s=2857720485;r=1; nat=;sol=0;
10 Кассационный суд Франции, 19 июня 2013 г., 12-17.591
11 Гражданский кодекс Франции, ст. 515-14
тами и субъектами права, так ка на последних применяется правовой режим вещей1. И животные, и искусственный интеллект обладают некоторым уровнем автономности и непредсказуемости. И те, и другие представляют собой функциональную полезность, несмотря на то, что право собственности на животных подразумевает некоторые ограничения2. Однако ни один из вышеуказанных свойств не является достаточным аргументом в пользу создания нового типа субъекта права.
Более того, несмотря на свою автономность, искусственный интеллект, будучи результатом субъективной деятельности человека, не обладает субъективными человеческими качествами. Несмотря на то, что некоторые выборы роботов не принимаются человеком непосредственным образом, последний вырабатывает критерии и принципы их функционирования, которым следует искусственный интеллект. Например, искусственный интеллект используется для создания различных работ, которые защищались бы авторским правом, если были бы созданы человеком (музыки, картины и т.д.). Согласно ч.1 ст. 3 закона РА «Об авторских и смежных правах», объектом авторского права считается оригинальный результат творческого труда. Оригинальность трактуется как отпечаток личности его автора3 или комплекция свободных и креативных выборов4. Однако, вышеуказанные субъективные параметры требуют наличие оригинальных качеств, которым наделен только человек: юридические лица не могут быть авторами этих работ. Такими качествами не обладает и робот. Для последнего создание картины является процессом обрабатывания данных, которые были заранее выбраны человеком, согласно параметрам выработанным им. Более того, искусственный интеллект не в состоянии изменить или аннулировать эти параметры. Из этого следует, что робот является лишь инструментом, чьё функционирование не полностью предвидима человеком. Признание робота как индивидуального субъекта противоречило бы сущности субъективных прав, так как для их осуществления всегда необходима воля человека, которая, в свою очередь, является необходимой предпосылкой для автономных решений робота.
Другой возможной моделью правосубъектности, это — юридическое лицо. Примечается, что искусственный интеллект и юридическое лицо имеют некоторые схожие характеристики. Юридическое лицо, как и искусственный интеллект, «является юнитом, который для того, чтобы существовать, нуждается в деятельности и в контроле человека или сообщества людей»5. Как и юридические лица, искусственный интеллект может подлежать государственной регистрации, которая позволила бы иметь информацию о его создателях и собственниках6. Правоспособность робота, как и правосубъектность юридического лица, будет «ограничена правами и обязанностями необходимыми для достижения их целей»7. Более того, модель юридического лица позволила бы определить единственного должника по обязательствам по причинению вреда, являющегося результатом функционирования робота. Для этого, робот может быть наделен обособленным имуществом.
Однако, данный подход влечет за собой некоторые риски и неудобства. Несмотря на позицию, что юридические лица считаются результатом юридической фикции, они, будучи «искусственными лицами», уже имеют некоторые права, которыми ранее были наделены только физические лица8. Данная тенденция известна как концепция «техноперсонализма»9. На сегодняшний день, для юридических лиц признаются так называемые неимущественные права, которые ранее были монополией физических лиц. Ущерб, понесенный юридическими лицами, включает ущерб репутации10, чести, корпоративному имени, уважению частной жизни, неприкосновенности корреспонденции11. Кроме того, Кассационный суд Франции12, Европейский Суд по правам человека13, Суд Евросоюза14 установили, что юридическое лицо имеет право на уважение своего жилища, право на частную жизнь. Если следовать этой тенденции «техно-персонализма», то признание правосубъектности робота влечет за собой риск признания таких прав для
1 BUFFELAN-LANORE, Y., LARRIBAU-TERNEYRE, V., « Droit civil — Introduction-Biens-Personnes-Famille », LMD, Sirey éd., 19e éd., 2015, p. 111.
2 Согласно ст. 137 Гражданского кодекса РФ; при осуществлении прав не допускается жестокое обращение с животными, противоречащее принципам гуманности.
3 Суд общей юрисдикции первой инстанции Парижа, 1 апреля 1957 г.
4 Case С-393/09. Court of Justice of the European Union, 2010; Bezpecnostní software»vá asociace, point 50
5 GELIN, Rodolphe, GUILHEM, Olivier, « Le robot est-il l'avenir de l'homme ? », Paris, La documentation française, 2016, page 145
6 BENSOUSSAN, Alain, BENSOUSSAN, Jeremy, « La personne robot » in « IA, robots et droit », Bruxelles, Bruylant, 2019, page 154
7 LOISEAU, Grégoire, BOURGEOIS, Matthieu, « Du robot en droit à un droit des robots », La Semaine Juridique Edition Générale n° 48, 24 Novembre 2014, page 1231
e LARRIEU Jacques, « Androides, exosquelettes, prothèses et corps humain" : Une tentative de definition d'un statut des robots en droit français », Osaka University Law Review, No. 62, page 77
9 LOISEAU Grégoire, « Des droits humains pour personnes non humaines », Recueil Dalloz, No. 37,2011, page 2559.
10 Кассационный суд Франции, 30 мая 2006 г., 04-17.102
11 DON DERO Bruno, « La reconnaissance de la prejudice morale des personnes morales », Dalloz, numéro 34, 2012, page 2288
12 Кассационный суд Франции, 8 dec. 2009
13 Европейский суд по правам человека, 16 апреля 2002 г., Ste Colas Est и др. против Франции, п°37971/97
14 The Court of Justice of the European Union, 22 oct. 2002, ste Roquette Freres, C-94/00
роботов, в случае чего автономное функционирование алгоритмов может быть защищено правом на личную жизнь, а их публикации в Интернете могут считаться выражением свободы слова, несмотря на то, что в реальности это результат ошибочного функционирования алгоритмов или неправильного программирования.
Одним из аргументов в пользу создания нового типа субъекта права является тот факт, что иногда трудно определить кто является ответственным лицом за вред причинённый роботом: программист, пользователь, собственник, производитель? Однако стоит отметить, что в наличии права есть другие альтернативы для решений комплексных проблем связанных с юридической ответственностью. Так, согласно общественному здравоохранительному кодексу Франции, если вред, будучи прямым следствием медицинской деятельности, не является результатом вины доктора или медецинской организации, или недостатком или дефектом медицинских продуктов, то ущерб должен быть возмещен за счет фонда национальной солидарности1. Данная система ответственности является объективной, так как ее применение не требует доказывания вины. Следует также иметь в виду, что современное право имеет разные механизмы объективной ответственности, при которых лицо признается ответственным несмотря на отсутствие вины. Например, в большинстве случаев робот обладающий искусственным интеллектом может быть признан источником повышенной опасности2, который неподвластен полному контролю со стороны человека. Из этих выводов следует, что вопрос правовой ответственности должен быть решен иными методами, чем создание нового субъекта права.
Исходя из совокупности вышеуказанных аргументов, мы считаем, что признание правосубъектности искусственного интеллекта не является обоснованным. Создание нового субъекта права в виде искусственного интеллекта не является необходимым шагом для развития права.
1 Кодекс общественного здаровохранения Франции, ст. Л 1142-1
2 Согласно ст. 1079 Гражданского кодекса РФ, Юридические лица и граждане, деятельность которых связана с повышенной опасностью для окружающих (использование транспортных средств, механизмов, электрической энергии высокого напряжения, атомной энергии, взрывчатых веществ, сильнодействующих ядов и т.п.;; осуществление строительной и иной, связанной с нею деятельности и др.), обязаны возместить вред, причиненный источником повышенной опасности, если не докажут, что вред возник вследствие непреодолимой силы или умысла потерпевшего.