СОЦИАЛЬНЫЕ ФАКТОРЫ РАЗВИТИЯ НАУКИ
АСЕЕВА И.А.* ПРАВА ЧЕЛОВЕКА VS ПРАВА РОБОТОВ: МЕТОДОЛОГИЧЕСКИЕ, ЭТИЧЕСКИЕ И ЮРИДИЧЕСКИЕ АСПЕКТЫ. (Аналитический обзор). DOI: 10.31249/naukoved/2022.04.03
Аннотация. Быстрое развитие новых информационно-коммуникационных технологий ставит перед научным сообществом и обществом сложные вопросы, касающиеся юридического и этического регулирования отношений с «умными» машинами. В дискуссии выделяются две противоборствующие позиции - сторонников и противников наделения искусственных сущностей, обладающих интеллектом, субъектностью с моральными и юридическими правами. Каждая из сторон подробно обосновывает свою точку зрения, привлекая методологические, этические, юридические, логические аргументы. Острота дискуссии доказывает важность отдаленных последствий принятого решения для всей человеческой цивилизации.
Ключевые слова: этика науки и технологий; информационно-коммуникационные технологии; искусственный интеллект; права человека; робот; права робота.
ASEEVA I.A. Human rights vs robot rights: methodological, ethical and legal aspects. (Analytical review).
Abstract. The rapid development of new information and communication technologies poses complex issues for the scientific
* Асеева Ирина Александровна - доктор философских наук, ведущий научный сотрудник Центра научно-информационных исследований по науке, образованию и технологиям ИНИОН РАН.
community and society concerning the legal and ethical regulation of relations with «smart» machines. Two opposing positions stand out in the discussion - supporters and opponents of endowing artificial intelligent entities with subjectivity with moral and legal rights. Each of the parties formulate its point of view in detail, involving methodological, ethical, legal, logical arguments. The acuteness of the discussion proves the importance of the long-term consequences of the decision for the entire human civilization.
Keywords: ethics of science and technology; information and communication technologies; artificial intelligence; human rights; robot; robot rights.
Для цитирования: Асеева И.А. Права человека vs права роботов : методологические, этические и юридические аспекты // Социальные и гуманитарные науки. Отечественная и зарубежная литература. Сер. 8: Науковедение. - 2022. - № 4. - С. 51-64. DOI : 10.31249/naukoved/2022.04.03
Технологические успехи в области искусственного интеллекта (ИИ), информатики и робототехники, быстрое совершенствование когнитивных способностей машин позволяют прогнозировать возможность создания высокоавтономных роботов с возможностями, сравнимыми с человеческими. Уже сейчас, когда машины еще несопоставимы по своим интеллектуальным способностям с людьми, в научной литературе и публицистике ведутся бурные дискуссии относительно их моральных и юридических прав. Причем одни выступают за кардинальный пересмотр международного законодательства, утверждая, что искусственные сущности заслуживают «морального уважения» [31] и априори обладают правосубъектностью [11], другие же считают эти вопросы надуманными и абсурдными [10] или же потенциально разрушительными для человеческого общества [19].
Некоторые ученые отказываются обсуждать моральный статус искусственных образований как преждевременное или отвлекающее от более насущных вопросов занятие, поскольку роботы не будут ни разумными, ни по-настоящему разумными в обозримом будущем. Например, А. Бирхейн и Дж. ван Дейк утверждают, что «дебаты о правах роботов сосредоточены на проблемах первого мира в ущерб насущным этическим проблемам, таким как
предпочтение машин, вызванная машинами эксплуатация человеческого труда и нарушение конфиденциальности, которые затрагивают наименее привилегированных людей общества» [7]. Вместе с тем, учитывая текущие технологические разработки в области ИИ, несколько известных ученых, таких как Д. Гункель, И. Геллерс, Дж.-С. Гордон и др. [18 ; 20 ; 22], полагают, что, как только мы увидим появление искусственных (супер-) интеллектуальных роботов, они получат права, которые можно было бы назвать правами робота по аналогии с правами человека.
Чем бы ни закончились эти обсуждения, дискуссия, по сути, остается в поле одного из фундаментальных философских вопросов: что есть человек и в чем заключается человечность? Особенно остро эти проблемы обозначаются сейчас, в период бума новых технологий, трансформирующих бытие человека, вторгающихся в его приватность, телесность. В самом обобщенном виде вопрос может быть сформулирован так: являются ли права человека безусловными по природе, принадлежащими любому представителю вида homo sapience и только ему, или ограниченными, отчуждаемыми и, соответственно, потенциально делегируемыми другим разумным существам любой природы? Однако можно с уверенностью сказать, что если роботы станут такими же умными, как люди (или даже умнее), то возникнут сложные вопросы относительно их социального, морального и правового статуса.
Основные акты международного права, Всеобщая декларация прав человека (1948), международные пакты о гражданских, политических, экономических, социальных и культурных правах, Декларация о праве на развитие (1986) и другие международные конвенции по защите основных прав и свобод [1] декларируют и призывают к защите прав однозначно, исключительно для человека и всех людей. Однако беспрецедентный прогресс технологий в конце XX - XXI в. стремительно размывает границы между реальным и виртуальным, естественным и искусственным, человеком и машиной. И несмотря на то что работы, подобные «Манифесту киборгов» Донны Харауэй [2], воспринимаются как околонаучная фантастика, провозглашающая возможный отказ от традиционных иерархий - гендерных, социальных, метафизических, - метафора киборга или мыслящего робота позволяет в массовом сознании
сформировать образ разумного существа, рационально принимающего автономные решения, обладающего мировоззрением, самосознанием, чувствительностью и, возможно, моралью.
К слову, в философии, биоэтике и праве ведется давняя дискуссия, в частности, по вопросу о разрешении и запрещении абортов, камнем преткновения которой является определение статуса эмбриона - как потенциального человека, человека как образа Божьего, личности или же вообще части тела матери. Это ключевое определение и возбуждает основные споры о его праве на жизнь, на защиту от посягательств третьих лиц.
В связи с развитием технологий ИИ идея о том, что все люди должны пользоваться полным спектром прав человека, была вновь поставлена под сомнение некоторыми философами, утверждающими, что права и обязанности должны скорее касаться личностей, а не людей как таковых [21; 36; 37]. Некоторые современные дискуссии о применении прав человека даже пытаются включить животных [13] и окружающую среду [4] в качестве носителей прав человека. На этом фоне можно было бы законно спросить: могут ли роботы, обладающие искусственным интеллектом, также заслуживать защиту в соответствии с положениями о правах человека?
В последние десятилетия наблюдается значительный рост взаимодействия человека с искусственными объектами. Роботы производят товары, ухаживают за пожилыми людьми, управляют домами и целыми городами, симуляторы используются для развлечения, военной подготовки и научных исследований на Земле и в космосе. Соответственно, академический интерес к моральному рассмотрению искусственных объектов растет экспоненциально.
Среди большого количества публикаций, затрагивающих политические решения, касающиеся прав искусственных образований, моральные противоречия интеграции роботов в социум, различные критерии для определения того, заслуживают ли искусственные объекты морального рассмотрения, отметим несколько работ, обобщающих и анализирующих накопившуюся литературу. Прежде всего это обзоры, посвященные проблемам разработки и использования ИИ [25; 30; 35; 42]. В последние годы было опубликовано множество глубоких аналитических работ, касающихся философских, этических и юридических аспектов проблемы. Д.Дж. Гункель, например, дает подробное обоснование своего ар-
гумента о «правах роботов», классифицируя источники по четырем модальностям: «Роботы не могут иметь прав, роботы не должны иметь прав», «Роботы могут иметь права, роботы должны иметь права», «Хотя у роботов могут быть права, у роботов не должно быть прав» и «Даже если у роботов не может быть прав, у роботов должны быть права» [23]. Гункель критикует каждую из этих точек зрения, выступая за «иное мышление» посредством деконструкции споров о том, могут ли и должны ли роботы иметь права.
Б. Беннетт и А. Дали, обобщая литературу, посвященную этим проблемам, добавляют еще один вопрос: «Будут ли роботам предоставлены права?» [5]. Они сосредоточены на юридических правах, особенно на правах юридического лица и правах интеллектуальной собственности. Г. Тавани кратко рассматривает использование терминов «робот» и «права», критерии, необходимые для того, чтобы субъект заслуживал рассмотрения с моральной точки зрения, рассуждает, является ли свобода воли предпосылкой морального принятия, например, для социальных роботов [38].
Подробный количественный и качественный анализ источников по проблеме морального отношения к искусственным сущностям провели Дж. Харрис и Дж.Р. Антис [24]. В августе и сентябре 2020 г. ими был осуществлен систематический поиск соответствующих материалов в четырех научных базах данных (Scopus, Web of Science, ScienceDirect и Цифровая библиотека ACM). Учитывая, что не существует единой, устоявшейся области исследований, изучающей моральное отношение к искусственным объектам, в общей сложности были отобраны и изучены 364 публикации по философии, этике, праву и социологии.
Кроме обобщающих работ отметим несколько публикаций, имеющих определяющее значение для темы данного обзора. Прежде всего это статьи, содержащие различные определения термина «робот» [6 ; 28 ; 33]. Например, робот - это «машина, которая напоминает живое существо тем, что способна самостоятельно передвигаться (например: ходить или кататься на колесах) и выполнять сложные действия (например: хватать и перемещать предметы)» [34]. В более узком смысле для многих людей термин «робот» подразумевает гуманоидную внешность или, по крайней мере, гуманоидные функции и поведение [9; 27; 32]. Дж. Харрис и
Дж.Р. Антис перечисляют и другие термины, используемые учеными для обозначения машин с искусственным интеллектом, -«искусственные существа», «искусственное сознание», «искусственная жизнь», «искусственный человек», «симуляции», «подпрограммы» и др., а также прилагательные - «синтетический», «электронный» и «цифровой» по отношению к личности [24]. Некоторые авторы, Н. Бостром в частности, используют терминологию, которая фокусируется на эмоциях, часто отрицательных (страданиях), конкретных форм ИИ, понимая поведение людей как «преступление разума» против «симуляций» [8; 39].
Научные дискуссии часто фокусируются на потенциальных «правах» искусственных образований. В частности, поднимается такой вопрос: может ли «право» служить наиболее подходящим термином, учитывая его двусмысленность и то, что юридические и моральные права являются различными регулятивными механизмами [12; 26]?
Л. Миллер, сотрудник философского факультета Университета Твенте (Нидерланды), предлагает всестороннее рассмотрение жизненно важного вопроса о том, должны ли автоматы (роботы), обладающие возможностями, соответствующими или даже превосходящими человеческие, пользоваться правами человека [29]. Он полагает, что не нужно предоставлять роботам права человека. Его основная аргументация основана на онтологическом различии людей и роботов. Он категорически отвергает доводы в поддержку прав человека для роботов: во-первых, идею о том, что моральный прогресс и расширяющийся моральный круг могут в конечном итоге оправдать права человека для роботов; по его словам, роботы онтологически отличаются, поскольку они были созданы людьми для определенных целей; во-вторых, так называемое онтологическое различие не позволяет приписывать права человека даже сверхразумным роботам, которые могли бы восстать против людей, если бы им было отказано в таких правах.
Л. Миллер критически рассматривает и отметает некоторые традиционные подходы к моральному статусу и правам роботов -подход Дарлинга к косвенным обязанностям, онтоцентрическую информационную этику Флориди, ориентированную на пациента, и подходы к социальным отношениям Кекельберга и Гункеля. Все они, по его мнению, вводят в заблуждение, поскольку соответ-
ствуют одному из двух вышеупомянутых аргументов, которые он отверг [29, р. 372-375].
Собственный аргумент Миллера в пользу онтологического различия между людьми и автоматами основан на трех предикатах [29, р. 375]: 1) люди и животные появились на свет сами по себе; 2) роботы были созданы людьми; 3) роботы созданы для определенной цели. Опираясь на эти предикаты, Миллер утверждает, что только люди (и животные) являются бесцельными существами (первый предикат) и что все автоматы, независимо от их способностей (например: чувствительности, интеллекта и сознания), обязательно (а) сконструированы и / или (б) наделены конкретной целью (второй и третий предикаты). Онтологическое различие заключается в том, что у людей нет цели, которую он называет «экзистенциальной нормативной нейтральностью», а у роботов есть [29, р. 378, 383]. По его словам, «онтологическое различие в моральном статусе закладывает достаточную основу для определения того, есть ли у людей моральные основания для отказа максимально человекоподобным автоматам в правах человека» [29, р. 379]. Миллер приходит к выводу, что «люди, напротив, вполне могли просто появиться на свет без необходимости в том, чтобы их строили какие-либо конструкторы, или без какой-либо определенной цели. Их права основаны на их данном существовании и свободе от чьих-либо целей. У автомата должна быть цель - цель конструктора при его создании, даже если эта цель состоит в том, чтобы "просто создать такую сущность"» [29, р. 384-385].
Миллер решительно опровергает наиболее важные возражения против своего подхода. Однако Дж.-С. Гордон и А. Пасвен-скине, подробно разбирая его позицию, не соглашаются с его общей линией рассуждений [22]. Во-первых, они считают, что факт об отсутствии у людей определенной экзистенциальной цели сам по себе ни о чем не говорит. Он имеет значение только в том случае, если добавить следующую предпосылку: люди, рожденные без цели, морально превосходят других существ, имеют полный моральный статус и, следовательно, должны пользоваться правами человека. Миллер не приводит обоснования этой дополнительной предпосылки. Кроме того, если бы Миллер утверждал, что люди могут использовать свое «бесцельное существование», применяя свои чувства, интеллект и сознание, то он попал бы в ловушку,
рассматривая эти когнитивные критерии как основу для приписывания прав человека автоматам. Если бы это было так, то достаточно сложные роботы тоже могли бы претендовать на права человека.
Во-вторых, Миллер признает тот факт, что первый предикат относится как к людям, так и к животным. Однако трудно понять, в чем заключается точное различие между животными и людьми, если не в предполагаемой способности «различать, утверждать и тем самым реализовывать права человека» (по Миллеру). Миллер говорит о том, что все представители вида Homo sapiens обладают правами человека независимо от их когнитивных способностей. Этот довод может создать впечатление, что на самом деле нет существенной разницы между животными и людьми в отношении их права на «права человека», несмотря на тот факт, что животные не являются людьми.
В-третьих, идея о том, что права человека «предоставляются», вводит в заблуждение. Ученые, занимающиеся философией прав человека, обычно утверждают, что права человека действительны независимо от какого-либо признания со стороны правительств, других групп или отдельных лиц. Исходя из этого, считают оппоненты Миллера, автоматы также будут претендовать на права человека, независимо от мнения других людей, если они соответствуют определенным критериям. «Рождение без цели», по их мнению, не является релевантным критерием.
Николае Войкулеску, профессор юридического факультета Университета имени Титу Майореску в Бухаресте (Румыния), представляет краткий обзор ряда документов мягкого права, принятых на международном уровне, которые касаются стандартизации правовых и этических вопросов в области прав человека и робототехники Г401. Его главная идея заключается в том, что права человека важнее прав роботов в силу уникального, неотъемлемого морального статуса человека. Войкулеску рассматривает роль различных этических кодексов, руководящих принципов, исследований и правил в контексте защиты индивидуальных прав человека на фоне развития интеллектуальных технологий. Несмотря на наличие сравнительно большого количества существующих документов по правам человека, пишет он, требуется более широкое и всеобъемлющее регулирование деятельности и решений роботов,
особенно когда они не находятся под непосредственным контролем людей. В настоящее время нет официально признанной универсальной политики, направленной на решение этих проблем. Тем не менее Войкулеску предлагает список официальных документов (например, [15; 16; 17]), охватывающих определенные аспекты защиты основных прав человека при использовании новых технологий. Его статья в основном посвящена правам и ценностям человека и мало касается статуса и прав роботов. По словам Вой-кулеску, даже если возможности роботов соответствуют возможностям человека или превосходят их, права человека должны касаться только людей. Он обсуждает некоторые элементы прав роботов только в последней части статьи. По его мнению, современные технологические разработки обязательно поднимут вопросы, связанные с автономией роботов и их природой, и это может потребовать от людей создания новой моральной категории существ со своими собственными характеристиками, что будет иметь последствия [40, р. 6]. Однако для Войкулеску благополучие людей и человеческого общества, а также их безопасность, свобода, здоровье и комфорт стоят на первом месте.
Войкулеску подчеркивает, что все идеи относительно правового статуса роботов были подвергнуты критике как абсурдные, противоречащие и нарушающие права человека и отвергнуты. Другими словами, присвоение роботам правового статуса было бы серьезной ошибкой для любого законодательства. Он приводит следующие аргументы в поддержку этой точки зрения: 1) предоставление прав человека роботам ведет к прямой конфронтации с правами человека; 2) человекоподобный робот - это созданная человеком машина, тогда как все люди рождаются свободными и равными; 3) робот не может быть человеком [40, р. 9-10].
Далее Войкулеску рассматривает некоторые вопросы, касающиеся статуса электронных лиц, разработка которого была предложена в Резолюции Европейского парламента о гражданско-правовых нормах в отношении робототехники (16 февраля 2017 г.). В этом документе содержится просьба к Европейской комиссии проанализировать последствия всех возможных правовых решений, таких как создание определенного правового статуса для роботов в долгосрочной перспективе, чтобы, по крайней мере, самые сложные автономные роботы могли быть признаны имеющими
статус электронных лиц, ответственных за возмещение любого ущерба, который они могут причинить, или применение электронной личности к случаям, когда роботы принимают автономные решения или иным образом независимо взаимодействуют с третьими сторонами [40, р. 9-10].
Р. Джордж Райт, профессор Школы права имени Роберта Х. Маккинни при Университете Индианы (США), исследует возможности продвинутых роботов, которые заслуживают или имеют право на типичные конституционные права [41]. Его главный вывод в том, что никакая комбинация сознания, самосознания и чувствительности не является достаточной для того, чтобы квалифицировать существо для конституционных прав, хотя эти способности необходимы для обладания конституционными правами. Отправной точкой рассуждений Райта является гипотетическое утверждение о том, что продвинутый робот обладает сознанием. Поэтому прежде всего необходимо определить, действительно ли данная сущность обладает сознанием. Райт рассматривает различные подходы, применяемые для такой оценки. Независимо от типа теста или любой комбинации тестов «самые интересные вопросы возникают только тогда, когда какой-либо продвинутый робот или другой искусственный интеллект однозначно проходит рассматриваемый тест» [41, р. 618]. Он утверждает, что даже если люди полностью поймут, что такое сознание, самосознание и чувствительность, никакое применение этих критериев не будет достаточным для предоставления продвинутым роботам конституционных прав. Сознание и самосознание как таковые не указывают на «способность к краткосрочным или долгосрочным планам, жизненным проектам, целям или устремлениям» [41, р. 623]. Отсюда следует, что продвинутый робот, который находится в сознании и понимает возможность того, что его можно отключить, не имеет права на защиту от такой возможности просто потому, что он сознателен. Таким образом, существо имеет право на конституционное право только в том случае, если оно удовлетворяет трем критериям: во-первых, у него должно быть сознание, самосознание и чувствительность; во-вторых, он должен иметь возможность составлять и иметь «планы, жизненные проекты, цели или устремления»; в-третьих, он должен заботиться о наличии такого права и послед-
ствиях применения этого права. По убеждению Райта, даже самый продвинутый робот таким критериям не удовлетворяет.
Кроме того, Райт исследует концепции автономии, свободы воли и личности, чтобы определить, являются ли они жизненно важными с точки зрения конституционных прав. Он полагает, что недостаточно быть просто автономным, или агентом, или личностью, если эти понятия определяются в довольно поверхностном смысле. Из этого не следует, что такое существо имеет право на обладание конституционными правами. Существует значительный риск применения неточных концепций автономии, свободы действий и личности, которые затем могут быть использованы для определения того, имеет ли существо конституционные права. Он опасается, что если кто-то расширит конституционные права на основе неточных или неправильных концепций, это может привести к несправедливости по отношению к самой идее конституционных прав. В статье Райта содержится также интересный анализ конкретных конституционных прав, касающихся продвинутых роботов, таких как равенство роботов, право голоса, работа в жюри присяжных и свобода слова [41, р. 634-645].
Оригинальные идеи высказывает Хутан Ашрафян, преподаватель и хирург Имперского колледжа (Великобритания) [3]. С его точки зрения, интеллектуальные роботы должны иметь право на «моральное достоинство и права, а также на новый закон для их защиты». Ашрафян полагает, что важно учитывать не только взаимодействие человека и робота, но и взаимодействие между самими роботами, а также возможное пагубное воздействие этого на людей, например, если роботы вынуждены конфликтовать друг с другом. Эта новая перспектива побуждает выйти за рамки обычных дискуссий о трех законах робототехники Азимова в контексте разработки роботов, поскольку эти законы не регулируют взаимодействия между роботами. Ашрафян утверждает, что «было бы неразумно, если бы робот отстаивал права человека и в то же время игнорировал права другой разумной мыслящей машины». Поэтому необходимо разработать новые программы и руководящие принципы для поддержки развития мыслящих роботов на различных социально-политических уровнях. В поддержку новой разработки Ашрафян предлагает четвертый закон, в котором говорится, что «все роботы, наделенные сопоставимыми человеческому разу-
мом и совестью, должны действовать по отношению друг к другу в духе братства и сестринства», по аналогии с первой статьей Всеобщей декларации прав человека.
Таким образом, в представленных в обзоре работах обсуждаются важные аспекты, связанные с необходимостью широкого обсуждения проблем, касающихся нормативного регулирования взаимодействия между искусственными разумными существами и человеком. Однако представляется проблематичным внедрение этических кодексов в машины, которые будут нормировать их поведение по отношению друг к другу (аналогично моральным кодексам людей), поскольку соблюдение самими людьми этих правил неоднозначно и часто противоречиво.
Список литературы
1. Основные международные акты о правах человек. - URL: https://constitution. garant.ru/act/right/megdunar/
2. Харауэй Д. Манифест киборгов: наука, технология и социалистический феминизм 1980-х. - Москва : Ад Маргинем Пресс, 2017. - 127 с.
3. Ashrafian H. Intelligent robots must uphold human rights // Nature. - 2015. -Vol. 519(7544). - P. 391.
4. Atapattu S. Human rights approaches to climate change: challenges and opportunities. - New York : Routledge, 2015. - 348 p.
5. Bennett B., Daly A. Recognising rights for robots: can we? Will we? Should we? // Law, innovation and technology. - 2020. - Vol. 12, N 1. - P. 60-80.
6. Beno M. Robot rights in the era of robolution and the acceptance of robots from the Slovak citizen's perspective // 2019 IEEE International symposium on robotic and sensors environments (ROSE), Ottawa, ON. - Canada : IEEE, 2019. - P. 1-7. -URL: https://doi.org/10.1109/R0SE.2019.8790429
7. Birhane A., Dijk J., van. Robot rights? : let's talk about human welfare instead // Proceedings of the AAAI/ACM conference on AI, ethics, and society. - 2020. -P. 207-213.
8. Bostrom N. Superintelligence: paths, dangers, strategies. - Oxford : Oxford univ. press, 2014. - 328 p.
9. Brey P., Seraker J.H. Philosophy of computing and information technology // Philosophy of technology and engineering sciences / Gabbay D.M., Thagard P., Woods J., Meijers A.W.M. (eds.). - Oxford : Elsevier, 2009. - P. 1341-1407.
10. Bryson J.J. Robots should be slaves // Close engagements with artificial companions: key social, psychological, ethical and design issue / Wilks Y. (ed.). -Amsterdam : John Benjamins Publishing Company, 2010. - Vol. 8. - P. 63-74.
11. Burri T. International law and artificial intelligence // German yearbook of international law, 2017. - Berlin : Duncker & Humblot, 2017. - Vol. 60. - P. 91-108.
12. Cappuccio M.L., Peeters A., McDonald W. Sympathy for dolores: moral consideration for robots based on virtue and recognition // Philosophy & technology. -2020. - Vol. 33, N 1. - P. 9-31.
13. Cavalieri P. The animal question. Why non-human animals deserve human rights. -Oxford : Oxford univ. press, 2001. - 184 p.
14. Donaldson S. Animal agora // Social theory and practice. - 2020. - Vol. 46, N 4. -P. 709-735.
15. European Commission for the Efficiency of Justice: The European ethical charter on the use of artificial intelligence in judicial systems and their environment, Strasbourg, 3-4 December 2018. - URL: https://www.coe.int/en/web/cepej/cepej-european-ethical-charter-on-the-use-of-artificial-intelligence-ai-in-judicial-systems-and-their-environment
16. European Commission: The ethics guidelines for trustworthy AI. - Brussels, 2019. -41 p. - URL: https://ec.europa.eu/digital-single-market/en/news/ethics-guidelines-trustworthy-ai
17. European Parliament: Resolution of 16 February 2017 with recommendations to the Commission on Civil Law Rules on Robotics. - 2018. - 19 p. - URL: https://oeil.secure.europarl.europa.eu/oeil/popups/ficheprocedure.do?lang=en&refer ence=2015/2103(INL)
18. Gellers J. Rights for robots. Artificial intelligence, animal and environmental law. -London : Routledge, 2020. - 177 p.
19. Gerdes A. The issue of moral consideration in robot ethics // ACM SIGCAS computers and society. - 2016. - Vol. 45(3). - P. 274-279.
20. Gordon J.-S. What do we owe to intelligent robots? // AI and society. - 2020. -Vol. 35, N 1. - P. 209-223.
21. Gordon J.-S., Gunkel D.J. Moral status and intelligent robots // Wiley : The southern journal of philosophy, 2022. - Vol. 60, N 1. - P. 88-117.
22. Gordon J.-S., Pasvenskiene A. Human rights for robots? A literature review // AI ethics. - 2021. - Vol. 1. - P. 579-591.
23. Gunkel D.J. Robot rights. - Cambridge : MIT Press, 2018. - 256 p.
24. Harris J., Anthis J.R. The moral consideration of artificial entities: a literature review // Science and engineering ethics. - 2021. - Vol. 27, Article number 53. -P. 1-95.
25. Hess J.L., Fore G. A systematic literature review of US engineering ethics interventions // Science and engineering ethics. - 2018. - Vol. 27. - P. 551-583.
26. Kim J., Petrina S. Artificial life rights: Facing moral dilemmas through the sims // Educational insights. - 2006. - Vol. 10, N 2. - P. 84-94.
27. Leenes R., Lucivero F. Laws on robots, laws by robots, laws in robots: regulating robot behaviour by design // Law, innovation and technology. - 2014. - Vol. 6, N 2. -P. 193-220.
28. Lin P., Abney K., Bekey G. Robot ethics: mapping the issues for a mechanized world // Artificial intelligence. - 2011. - Vol. 175, N 5/6. - P. 942-949.
29. Miller L.F. Granting automata human rights: challenge to a basis of full-rights privilege // Human rights review. - 2015. - Vol. 16, N 4. - P. 369-391.
30. Mittelstadt B. Ethics of the health-related internet of things: a narrative review // Ethics and information technology. - 2017. - Vol. 19, N 3. - P. 157-175.
31. People for the ethical treatment of reinforcement learners. - URL: http://www. petrl.org/
32. Rademeyer L.B. Legal rights for robots by 2060? // Knowledge futures: interdisciplinary journal of futures studies. - 2017. - Vol. 1, N 1. - P. 1-20. - URL: https://research.usc.edu.au/discovery/fulldisplay/alma99451189902621/61USC_IN ST:ResearchRepository
33. Robertson J. Human rights versus robot rights: forecasts from Japan // Critical Asian studies. - 2014. - Vol. 46, N 4. - P. 571-598.
34. Robot // Merriam Webster. - URL: https://www.merriam-webster.com/dictionary/ robot
35. Saltz J.S., Dewar N. Data science ethical considerations: a systematic literature review and proposed project framework // Ethics and information technology. -2019. - Vol. 21, N 3. - P. 197-208.
36. Singer P. Spesiesism and moral status // Metaphilosophy. - 2009. - Vol. 40, N 3-4. -P. 567-581.
37. Singer P. The expanding circle: ethics, evolution, and moral progress. - Princeton : Princeton univ. press, 2011. - 208 p.
38. Tavani H. Can social robots qualify for moral consideration? Reframing the question about robot rights // Information. - 2018. - Vol. 9, N 4, Article 73. - P. 116.
39. Tomasik B. Risks of astronomical future suffering // Center on long-term risk. -2011. - P. 1-8. - URL: https://longtermrisk.org/files/risks-of-astronomical-future-suffering.pdf
40. Voiculescu N. I, robot! The lawfulness of a dichotomy: human rights v. bobots' rights // Romanian law, 30 years after the collapse of communism / Ispas P.E., Maxim F. (eds.). - 8th ed. - Bucharest : Titu Maiorescu University, 2020. - P. 3-14.
41. Wright R.G. The constitutional rights of advanced robots (and of human beings) // Arkansas law review. - 2019. - Vol. 71, N 3. - P. 613-646.
42. Yi N., Nemery B., Dierickx K. Integrity in biomedical research : a systematic review of studies in China // Science and engineering ethics. - 2019. - Vol. 25, N 4. -P. 1271-1301.