Научная статья на тему 'Возникновение аватаров на основе искусственного интеллекта: юридическая субъектность, права и обязанности в развивающейся метавселенной'

Возникновение аватаров на основе искусственного интеллекта: юридическая субъектность, права и обязанности в развивающейся метавселенной Текст научной статьи по специальности «Право»

CC BY
36
3
i Надоели баннеры? Вы всегда можете отключить рекламу.
Область наук
Ключевые слова
большие языковые модели / ИИ-аватар / интеллектуальная собственность / искусственный интеллект / метавселенная / ответственность / право / правосубъектность / цифровые технологии / юридическое лицо / AI avatar / artificial intelligence / digital technologies / intellectual property / Large language models / law / legal person / legal personality / metaverse / responsibility

Аннотация научной статьи по праву, автор научной работы — Чонг Б. Ч.

Цель: определить правовые последствия развития автономных и твор­ческих аватаров на основе искусственного интеллекта и сформировать направления дискурса об ответственном управлении техноло­гия­ми искусственного интеллекта в метавселенной на основе активных междисциплинарных подходов. Методы: основу исследования составляет доктринальный юридический подход, позволивший представить перспективный анализ правового ландшафта в сфере ИИ-аватаров в метавселенной и определить четыре ключевых тематических направления, по которым проводится исследование: эволюция ИИ-аватаров и влияние метавселенной, применимость правовой субъектности, ответственность за автономные действия и проблемы ИИ-аватаров в сфере творчества, связанные с аспектами интеллектуальной собственности и неприкосновенности частной жизни. Результаты: в работе представлены и проанализированы прогнозные сценарии развития ИИ-аватаров, максимально усиливающих свое влия­ние в пространстве метавселенной. Отмечается, что с появлением аватаров на основе искусственного интеллекта в метавселенной связана постановка сложных правовых, этических, философских и социальных вопросов, требующих неотложных решений. Рассмотрено потенциальное влияние растущей сложности ИИ-аватаров на правовые подходы. По мере того как аватары становятся все более автономными, возникают вопросы об их правовом статусе, правах, обязанностях, рисках и пользе для человека и общества. Анализируются преимущества и недостатки наделения ИИ-аватаров правовым статусом юридических лиц, а также применения к последствиям их действий концепции распределенной ответственности. Особое внимание уделено возможному в будущем доминированию сверхразумных аватаров на основе искусственного интеллекта в метавселенной с учетом существующих рисков и потребностей в сфере управления. Научная новизна: в статье на примере междисциплинарного анализа эволюции ИИ-аватаров представлен новый взгляд на проблему правосубъектности в метавселенной, направленный на достижение баланса между трансформационным потенциалом и защитой прав и благополучия человека посредством совместных усилий по созданию правовых и этических норм, ставящих во главу угла безопасность и согласованность технологий искусственного интеллекта, задействованных в процессах, происходящих в метавселенной. Практическая значимость: полученные в процессе проведенного исследования выводы и предлагаемые решения правовых проблем субъектности и ответственности могут стать основой для пересмотра концепции правосубъектности, разработки надежных механизмов ответственности и подотчетности, а также обеспечения защиты прав и ценностей человека перед лицом все более мощных сущностей на основе искусственного интеллекта, что сопряжено с формированием и совершенствованием правового ландшафта управления процессами и преодоления рисков в социально ориентированной и инклюзивной экосистеме метавселенной.

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

The Rise of AI Avatars: Legal Personhood, Rights and Liabilities in an Evolving Metaverse

Objective: to determine the legal implications of the development of autonomous and creative AI-based avatars and to shape the direction of the discourse on the responsible management of AI technologies in the meta-universe based on proactive interdisciplinary approaches. Methods: the research is based on a doctrinal legal approach, which allowed presenting a prospective analysis of the legal landscape in the field of AI avatars in the metaverse and to identify four key thematic areas of research: the evolution of AI avatars and the impact of the metaverse, the applicability of legal personhood, the liability for autonomous actions, and the problems of AI avatars in the field of creativity related to intellectual property and privacy. Results: the paper presents and analyzes predictive scenarios of AI avatars maximizing their influence in the metaverse space. The author notes that the emergence of AI-based avatars in the metaverse raises complex legal, ethical, philosophical and social issues that require urgent solutions. The potential impact of the increasing complexity of AI avatars on legal approaches is considered. As avatars become increasingly autonomous, questions arise about their legal status, rights, responsibilities, risks, and benefits to humans and society. The author analyzes the advantages and disadvantages of giving AI avatars the status of legal entities, as well as applying the concept of distributed responsibility to the consequences of their actions. Special attention is paid to the possible future dominance of super-intelligent AI-based avatars in the metaverse, taking into account the existing risks and needs in the field of governance. Scientific novelty: the article presents a new perspective on the problem of legal personality in the metaverse based on interdisciplinary analysis of the evolution of AI avatars. The research is aimed at achieving a balance between transformational potential and the protection of human rights and welfare through joint efforts. It is proposed to create legal and ethical norms that prioritize the safety and consistency of artificial intelligence technologies involved in the processes occurring in the metaverse. Practical significance: the conclusions and proposed solutions to the legal problems of personhood and liability can become the basis for revising the concept of legal personality, developing reliable mechanisms of responsibility and accountability, as well as ensuring the protection of human rights and values in the face of increasingly powerful entities based on artificial intelligence. This is associated with the formation and improvement of the legal landscape of process management and overcoming risks in the socially oriented and inclusive ecosystem of the metaverse.

Текст научной работы на тему «Возникновение аватаров на основе искусственного интеллекта: юридическая субъектность, права и обязанности в развивающейся метавселенной»

Научная статья

УДК 34:004:347.1:004.8

EDN: https://elibrary.ru/fnenmx

DOI: https://doi.org/10.21202/jdtl.2024.42

з

%

Check for updates

Возникновение аватаров на основе искусственного интеллекта: юридическая субъектность, права и обязанности в развивающейся метавселенной

Бен Честер Чонг О

Сингапурский университет общественных наук, Сингапур, Сингапур Кембриджский университет, Кембридж, Великобритания

Ключевые слова Аннотация

Цель: определить правовые последствия развития автономных и творческих аватаров на основе искусственного интеллекта и сформировать направления дискурса об ответственном управлении технологиями искусственного интеллекта в метавселенной на основе активных междисциплинарных подходов.

Методы: основу исследования составляет доктринальный юридический подход, позволивший представить перспективный анализ правового ландшафта в сфере ИИ-аватаров в метавселенной и определить четыре ключевых тематических направления, по которым проводится исследование: эволюция ИИ-аватаров и влияние метавселенной, применимость правовой субъектности, ответственность за автономные действия и проблемы ИИ-аватаров в сфере творчества, связанные с аспектами интеллектуальной собственности и неприкосновенности частной жизни. Результаты: в работе представлены и проанализированы прогнозные сценарии развития ИИ-аватаров, максимально усиливающих свое влияние в пространстве метавселенной. Отмечается, что с появлением аватаров на основе искусственного интеллекта в метавселенной связана постановка сложных правовых, этических, философских и социальных вопросов, требующих неотложных решений. Рассмотрено потенциальное влияние растущей сложности ИИ-аватаров на правовые подходы. По мере того как аватары становятся все более автономными, возникают вопросы об их правовом статусе, правах, обязанностях, рисках и пользе для человека и общества. Анализируются преимущества и недостатки наделения ИИ-аватаров правовым статусом юридических лиц, а также применения к последствиям их действий концепции распределенной ответственности. Особое внимание уделено возможному в будущем доминированию сверхразумных аватаров на основе искусственного интеллекта в метавселенной с учетом существующих рисков и потребностей в сфере управления.

© Чонг Б. Ч., 2024

большие языковые модели,

ИИ-аватар,

интеллектуальная

собственность,

искусственный интеллект,

метавселенная,

ответственность,

право,

правосубъектность, цифровые технологии, юридическое лицо

Статья находится в открытом доступе и распространяется в соответствии с лицензией Creative Commons «Attribution» («Атрибуция») 4.0 Всемирная (CC BY 4.0) (https://creativecommons.Org/licenses/by/4.0/deed.ru), позволяющей неограниченно использовать, распространять и воспроизводить материал при условии, что оригинальная работа упомянута с соблюдением правил цитирования.

Научная новизна: в статье на примере междисциплинарного анализа эволюции ИИ-аватаров представлен новый взгляд на проблему правосубъектности в метавселенной, направленный на достижение баланса между трансформационным потенциалом и защитой прав и благополучия человека посредством совместных усилий по созданию правовых и этических норм, ставящих во главу угла безопасность и согласованность технологий искусственного интеллекта, задействованных в процессах, происходящих в метавселенной. Практическая значимость: полученные в процессе проведенного исследования выводы и предлагаемые решения правовых проблем субъектности и ответственности могут стать основой для пересмотра концепции правосубъектности, разработки надежных механизмов ответственности и подотчетности, а также обеспечения защиты прав и ценностей человека перед лицом все более мощных сущностей на основе искусственного интеллекта, что сопряжено с формированием и совершенствованием правового ландшафта управления процессами и преодоления рисков в социально ориентированной и инклюзивной экосистеме метавселенной.

Для цитирования

Чонг, Б. Ч. (2024). Возникновение аватаров на основе искусственного

интеллекта: юридическая субъектность, права и обязанности в развивающейся

метавселенной. Journal of Digital Technologies and Law, 2(4), 857-885.

https://doi.org/10.21202/jdtl.2024.42

Содержание

Введение

1. Обзор литературы в сфере правовых и социальных последствий появления метавселенной

2. Эволюция аватаров на основе искусственного интеллекта

3. Новый взгляд на проблему правосубъектности ИИ-аватаров

4. Вопросы ответственности автономных ИИ-аватаров

5. Специфические проблемы творческих ИИ-аватаров

6. Взгляд в будущее: будет ли искусственный интеллект управлять метавселенной

Заключение

Список литературы

Введение

Концепция аватаров в метавселенной и потенциальные правовые проблемы и средства защиты, которые могут при этом возникнуть, были впервые рассмотрены в основополагающей статье (Cheong, 2022), где проводились также параллели с принципами корпоративного права. В статье обсуждалась необходимость защиты прав аватаров, возможность предоставления им отдельной правосубъектности и потенциальные последствия участия аватаров в таких вредоносных действиях, как мошенничество, кража личности, диффамация и другие преступления. Автор затронул также концепцию отмены корпоративного иммунитета в определенных обстоятельствах с целью возложения ответственности на лиц, скрывающихся за аватарами.

Со времени публикации этой статьи произошел значительный прогресс в области искусственного интеллекта (далее - ИИ), особенно в связи с появлением технологии больших языковых моделей (large language model, LLM) и разработкой новых моделей ИИ. Такие компании, как Nvidia, добились значительных успехов в создании мощных инструментов и платформ ИИ, которые формируют будущее метавселенной (Soliman et al., 2024). Эти достижения породили новые вопросы и проблемы, касающиеся правового статуса и последствий использования аватаров на основе ИИ в метавселенной. Быстрая эволюция технологий ИИ привела к появлению все более сложных и автономных ИИ-аватаров, способных вступать в сложные взаимодействия и принимать решения в метавселенной (McStay, 2023). По мере того как эти аватары ИИ становятся все более реалистичными и получают все новые способности, начинают стираться границы между взаимодействиями человека и ИИ в метавселенной. Это поднимает важные вопросы о правовом статусе ИИ-аватаров и о том, в какой степени они должны быть наделены правами и обязанностями. Кроме того, развитие аватаров, управляемых искусственным интеллектом, породило новые проблемы с точки зрения ответственности и подотчетности. Поскольку автономность ИИ-аватаров повышается, становится все сложнее возложить ответственность за их действия на людей или компании, которые за ними стоят. Это может привести к появлению «серой зоны» в законодательстве, когда вредоносные действия аватаров ИИ не получают реакции и не существует четких механизмов для возмещения ущерба пострадавшим.

В свете этих событий крайне важно пересмотреть правовую базу в сфере аватаров в метавселенной и возможности ее изменения с учетом специфических проблем, создаваемых ИИ-аватарами. Цель данной статьи - внести вклад в этот важный дискурс, изучив правовые последствия развития аватаров на основе ИИ по мере их усложнения и повышения автономности. В статье предложен углубленный анализ юридических последствий появления ИИ-аватаров в метавселенной, опираясь на положения работы (Cheong, 2022). Рассмотрено потенциальное влияние растущей сложности ИИ-аватаров на правовые подходы, предложенные в указанной работе; изучена потенциальная потребность в новых правовых подходах для решения уникальных проблем, создаваемых ИИ-аватарами. Используя доктринальный юридический подход, автор представляет перспективный анализ правового ландшафта в сфере ИИ-аватаров в метавселенной. Рассмотрены соответствующие правовые принципы и прецеденты, а также гипотетические сценарии будущего, в которых ИИ-аватары могут стать еще более продвинутыми и усилить свое влияние в пространстве метавселенной.

Представленный анализ продолжает дискуссию о правовых последствиях ИИ и метавселенной, а также предлагает ряд идей и рекомендаций для законодателей, юристов-практиков и других заинтересованных сторон, которые должны ориентироваться в этом быстро меняющемся ландшафте. В конечном итоге необходимо обеспечить, чтобы правовые нормы, касающиеся аватаров на основе ИИ в пространстве метавселенной, были надежными, адаптируемыми и способными защитить права и интересы всех вовлеченных сторон.

1. Обзор литературы в сфере правовых и социальных последствий появления метавселенной

Такая стремительно развивающаяся цифровая инновация, как метавселен-ная, вызывает значительные научные дискуссии, особенно по поводу правовых и социальных последствий ее появления. В данном обзоре мы рассмотрим

последние публикации начиная с 2021 г. и выделим ключевые темы и аргументы, связанные с влиянием метавселенной на правовые и общественные нормы, в частности неприкосновенность частной жизни.

Одной из главных проблем в исследовании метавселенной является юридический статус и права аватаров. В работе (Cheong, 2022) исследуется концепция наделения аватаров правосубъектностью и проводятся параллели с принципами корпоративного права. Автор утверждает, что, поскольку аватары занимаются такими видами деятельности, как мошенничество, кража личных данных и диффамация, существует острая необходимость в защите их прав и привлечении к ответственности лиц, стоящих за этими аватарами. Предлагается концепция отмены иммунитета и возложения ответственности на реальных лиц, контролирующих аватаров, по аналогии с тем, как концепция отмены корпоративного иммунитета применяется для решения проблемы корпоративных нарушений (Cheong, 2022). Появление метавселенной требует новых правовых рамок для решения специфических проблем в ней. Для регулирования социальных отношений в метавселенной Kostenko с соавторами (Kostenko et al., 2023) выступают за создание всеобъемлющей электронной юрисдикции, включая особые кодексы метавселенной. В этой работе подчеркивается, что для устойчивого развития метавселенной необходимы четкие правовые границы, а ученым предлагается спрогнозировать и очертить будущие контуры правовых полномочий для виртуальных сред (Kostenko et al., 2023). В другой работе (Kostenko et al., 2022) обсуждается эволюция правового регулирования от Web 1.0 к Web 3.0 и подчеркивается неадекватность существующих законов в отношении виртуальной среды и среды дополненной реальности. Авторы выступают за применение принципов аналогового права в виртуальной среде, таких как установление права собственности и ответственности за виртуальные активы, с целью снижения правовой неопределенности (Kostenko et al., 2022).

Экономическая деятельность в метавселенной, особенно сделки с виртуальными товарами и услугами, влечет за собой значительные правовые последствия. В работе Yayman (2023) рассматриваются проблемы налогообложения операций в виртуальном мире и сравниваются налоговые нормы Турции и США. По мнению ученого, виртуальные миры все больше отражают реальную экономическую деятельность, что требует согласованной налоговой политики для учета доходов, получаемых в этих средах (Yayman, 2023). Кроме того, конфиденциальность и защита данных становятся важнейшими проблемами, по мере того как метавселенная все глубже интегрируется в повседневную жизнь. Исследование McStay (2023) рассматривает проблемы защиты информации в области биометрических и эмоциональных данных, собираемых в метавселенной. При описании этих рисков автор вводит понятия «физика надзора» и «виртуальное реалистическое управление». Эти концепции подчеркивают необходимость введения надежных мер по защите данных, которые учитывали бы уникальные возможности для надзора в метавселенной (McStay, 2023). Еще одна важная область исследований - это влияние метавселенной на социальные отношения и трудовое законодательство. Работа Guastavino и Mangan (2023) посвящена возможному влиянию метавселенной на производственные отношения, причем основное внимание уделяется защите данных работников. Авторы подчеркивают необходимость междисциплинарных исследований для разработки правовых рамок, обеспечивающих определенность и защиту прав работников в метавселенной (Guastavino & Mangan, 2023).

Философские и экономические аспекты метавселенной глубоко изучены в работе (Garon, 2022) на примере конкурирующих взглядов сторонников Web3 и традиционных интернет-компаний. Подчеркивается, что метавселенная может кардинально изменить интернет-торговлю и социальные взаимодействия, однако управление этой цифровой инновацией требует перспективной правовой и экономической политики (Garon, 2022). Заглядывая вперед, ученые рассматривают гипотетические сценарии будущего, чтобы управлять текущими правовыми и политическими реалиями. Так, в работе Wu и Zhang (2023) обсуждаются технологии защиты конфиденциальности и аутентификации, необходимые для управления цифровой идентичностью в метавселенной. Утверждается, что передача данных о частной жизни и проецирование эмоций имеют решающее значение для субъектности аватаров, что создает серьезные проблемы для обеспечения безопасности частной жизни (Wu & Zhang, 2023). Исследование Qin с соавторами (Qin et al., 2022) подчеркивает необходимость создания международной правовой базы для решения проблем идентификации, преступлений и правоприменения в метавселенной. Показано, что для эффективного расследования преступлений и демократического управления в виртуальном пространстве необходимо сотрудничество между странами (Qin et al., 2022). Работа Sun с соавторами (Sun et al., 2022) дает исчерпывающий обзор вопросов безопасности и конфиденциальности в метавселен-ной, а также предлагает ряд решений и направлений дальнейших исследований этих проблем. Авторы говорят о необходимости надежных мер безопасности для защиты пользовательских данных и обеспечения безопасного взаимодействия в виртуальной среде (Sun et al., 2022).

Таким образом, современные исследования в области метавселенной подчеркивают настоятельную необходимость создания новых правовых рамок и подходов для решения ее специфических проблем. Ученые закладывают основу для всестороннего понимания правовых и социальных последствий появления этой инновации, рассматривая весь спектр вопросов от защиты прав аватаров до регулирования экономической деятельности и обеспечения конфиденциальности данных. По мере развития метавселенной будут необходимы постоянные исследования и обсуждения для того, чтобы ее развитие шло во благо всех заинтересованных сторон.

2. Эволюция аватаров на основе искусственного интеллекта

Стремительное развитие искусственного интеллекта коренным образом изменило концепцию аватаров в метавселенной, превратив их из простых статичных представлений в очень сложные автономные сущности, способные вступать в сложные взаимодействия и принимать решения. Этой эволюции способствовала интеграция передовых технологий ИИ, таких как большие языковые модели (large language models, LLM), методы обработки естественного языка (natural language processing, NLP) и передовые алгоритмы машинного обучения, которые наделили аватары на основе ИИ беспрецедентным уровнем разумности, адаптивности и реалистичности (Bender et al., 2021; Seymour et al., 2018).

Одной из самых значительных вех в развитии ИИ-аватаров стала разработка больших языковых моделей, которая произвела революцию в том, как аватары могут общаться и взаимодействовать с пользователями в метавселенной. Большие

языковые модели - это системы ИИ, обученные на огромных объемах текстовых данных, что позволяет им генерировать человекоподобные ответы и вступать в контекстуально релевантное общение (Bender et al., 2021). Интеграция больших языковых моделей в аватары на основе ИИ позволила создать очень убедительных интерактивных агентов, способных понимать запросы пользователей и отвечать на них достаточно естественным и интуитивным образом (Kim & Im, 2023). Это открыло новые возможности для использования аватаров ИИ в качестве интеллектуальных помощников, гидов и компаньонов в метавселенной, предлагающих персонализированную поддержку и обогащающих пользовательский опыт (Bayoudh et al., 2022).

Кроме того, появление передовых технологий компьютерного зрения и машинного обучения открыло путь к созданию фотореалистичных аватаров, сгенерированных ИИ, которые стирают границы между виртуальным и физическим мирами (Seymour et al., 2018). Такие проекты, как MetaHuman Creator от компании Epic Games, демонстрируют невероятный потенциал этих технологий, позволяя создавать аватары с реалистичными мимикой, языком тела и эмоциональными реакциями1. Становясь все более неотличимыми от реальных людей, эти аватары поднимают глубокие вопросы о природе идентичности, подлинности и социального взаимодействия в метавселенной (Zimmermann et al., 2023).

Эволюция аватаров на основе ИИ также определяется растущей значимостью воплощенного познания и признанием той роли, которую физическое воплощение играет в формировании поведения и взаимодействия агента (Wolfert et al., 2022). По мере усложнения этой технологии происходит сдвиг в сторону разработки аватаров, которые не только интеллектуальны, но и способны демонстрировать реалистичное физическое поведение и реакции (Nordmoen et al., 2021). В результате появились аватары, которые могут перемещаться и взаимодействовать с виртуальной средой более естественным и интуитивным образом, что еще больше размывает границы между виртуальностью и реальностью (Duan et al., 2021).

По мере развития и повышения автономности аватары на основе ИИ берут на себя все более сложные функции в метавселенной, начиная с деятельности виртуальных блогеров и создателей контента и заканчивая ролью лиц, принимающих решения, и проводников перемен (Shirado & Christakis, 2017). В этой связи возникают важные вопросы о правовых и этических последствиях их присутствия в метавселенной, особенно с точки зрения их потенциального влияния на человеческую субъектность, приватность и подотчетность (De Streel et al., 2020). Поскольку такие аватары становятся все более сложными и автономными, крайне важно создать надежные механизмы управления и этические принципы, чтобы гарантировать, что их разработка и внедрение соответствуют общественным ценностям и способствуют благополучию как пользователей-людей, так и всей экосистемы метавселенной (Erdelyi & Goldsmith, 2018; Kuzminykh & Rintel, 2020).

Эволюция аватаров на основе ИИ представляет собой смену парадигмы в том, как мы концептуализируем виртуальные сущности и взаимодействуем с ними, бросая вызов традиционным представлениям об идентичности, субъектности

Epic Games. (2024). MetaHuman Creator: High-fidelity digital humans made easy. Unreal Engine. https://clck.ru/3EiqSA

1

и социальных взаимодействиях. По мере того как эти аватары продолжают развиваться и все глубже интегрироваться в ткань метавселенной, необходимо проводить постоянные междисциплинарные исследования и обсуждения, чтобы понять далеко идущие последствия их развития и обеспечить ответственный и этичный характер их эволюции (De Gregorio, 2021). Активно рассматривая проблемы и возможности, связанные с появлением аватаров на основе ИИ, мы сможем создать метавселенную, которая будет не только технологически продвинутой, но и социально ответственной и инклюзивной.

3. Новый взгляд на проблему правосубъектности ИИ-аватаров

Поскольку аватары на основе ИИ становятся более сложными, автономными и способными участвовать в сложных процессах принятия решений, все актуальнее становится вопрос об их правовом статусе и субъектности. Традиционные правовые нормы, построенные вокруг концепции человеческой деятельности и ответственности, все больше подвергаются сомнению в связи с появлением субъектов ИИ, которые могут действовать независимо и оказывать значительное влияние на виртуальный и реальный миры (Gordon, 2022). В данном разделе мы рассмотрим последствия наделения ИИ-аватаров правосубъектностью, опираясь на существующую литературу о правосубъектности искусственного интеллекта и изучая потенциальные преимущества, риски и проблемы, связанные с распространением юридических прав и обязанностей на эти виртуальные сущности.

Концепция правосубъектности - это фундаментальная конструкция в праве, означающая признание кого-либо или что-либо в качестве субъекта юридических прав и обязанностей (Kurki, 2019; Cheong, 2021). Исторически правовой статус предоставлялся не только физическим лицам, но и искусственным образованиям, таким как корпорации, которые рассматриваются как «юридические лица» для целей заключения договоров, владения имуществом и ответственности (van den Hoven van Genderen, 2018; Cheong, 2021). Распространение статуса юридического лица на ИИ-аватары стало бы значительным шагом вперед в правовом признании искусственного интеллекта, так как они получили бы форму юридического лица и автономию, что может иметь далеко идущие последствия для их роли в метавселенной и вне ее (Stein, 2020).

Один из главных аргументов в пользу наделения ИИ-аватаров статусом юридического лица заключается в том, что это обеспечит четкую основу для возложения на них прав и обязанностей, позволяя им полноценно участвовать в правовой и экономической системах метавселенной (Militsyna, 2022). После признания таких аватаров юридическими лицами они смогут заключать договоры, владеть виртуальной собственностью и нести ответственность за свои действия, что обеспечит определенную степень правовой определенности и предсказуемости, необходимую для нормального функционирования экономики метавселенной (Lehdonvirta, 2024). Более того, наделение ИИ-аватаров статусом юридического лица поможет обеспечить как их ответственность за свои действия, так и защиту прав пользователей-людей при взаимодействии с этими виртуальными агентами (Turner & Schneider, 2020). Аватары на основе ИИ становятся все более сложными и способными принимать решения, имеющие последствия в реальном мире. Поэтому должны существовать четкие правовые механизмы, гарантирующие, что на них распространяется

верховенство закона и что любой вред, причиненный их действиями, может быть возмещен (De Streel et al., 2020; Cheong, 2022).

Однако идея распространения правосубъектности на ИИ-аватары не лишена проблем и сталкивается с критикой. Одно из главных возражений против такого подхода заключается в том, что он может привести к размыванию концепции юридического лица, стиранию границ между человеческими и искусственными агентами и потенциальному подрыву морально-философских основ прав и достоинства человека (Bryson et al., 2017). По мнению некоторых ученых, наделение субъектов ИИ статусом юридического лица может привести к ситуации, когда права и интересы искусственных агентов станут приоритетнее человеческих, что приведет к своего рода «исключительности ИИ», которая может иметь опасные последствия (Gunkel, 2024). Еще одной проблемой, связанной с предоставлением ИИ-аватарам статуса юридического лица, является вопрос о том, как определить уровень их автономии и способности принимать решения. Некоторые такие аватары очень сложны и способны работать самостоятельно, другие более ограничены в своих возможностях и в значительной степени зависят от участия и контроля со стороны человека (Samek et al., 2021). Установление четких критериев оценки правового статуса таких аватаров необходимо для того, чтобы предоставляемые им права и обязанности соответствовали их реальным возможностям и потенциальному влиянию (Chopra & White, 2011). Кроме того, правовая субъектность ИИ-аватаров поставит сложные вопросы об ответственности и подотчетности в случае причинения вреда или совершения противоправных действий. Если аватар на основе ИИ наносит ущерб или занимается незаконной деятельностью, кто должен нести ответственность - сам аватар, пользователь, который его создал или применил или компания, разработавшая базовую технологию? (Lemley & Casey, 2019; Cheong, 2022). Решение этих вопросов потребует тщательного учета интересов и ответственности всех вовлеченных сторон, а также разработки новых правовых доктрин и механизмов для решения уникальных проблем, создаваемых агентами ИИ (Buiten, 2019).

Одним из возможных подходов к решению этих проблем является разработка «многоуровневой» системы правосубъектности для ИИ-аватаров, которая будет предоставлять различные уровни прав и обязанностей в зависимости от сложности и автономности данной сущности (Hildebrandt, 2020). Согласно этому подходу, «слабые» аватары на основе ИИ с ограниченными возможностями принятия решений получат базовую форму правосубъектности с ограниченными правами и обязанностями, в то время как более продвинутые - «сильные» - ИИ-аватары получат правовой статус более высокого уровня с соответственно большими правами и обязанностями (Pagallo, 2018; Cheong, 2022). Другой подход состоит в разработке «гибридных» правовых систем, сочетающих элементы правовой субъектности с другими формами правовой защиты и регулирования (Benhamou & Ferland, 2021). Это может повлечь за собой создание специальных правовых режимов для ИИ-аватаров, наделяя их определенными правами и обязанностями, но также предусматривая особые нормы и механизмы надзора для обеспечения их безопасной и ответственной работы (Fosch-Villaronga & Mahler, 2021).

В итоге вопрос о правосубъектности ИИ-аватаров требует постоянных исследований, обсуждений и экспериментов, поскольку эти технологии продолжают развиваться и становятся все более интегрированными в ткань метавселенной. Хотя распространение правового статуса лица на ИИ-аватаров может обеспечить

определенную юридическую ясность и предсказуемость, оно также поднимает значительные этические, философские и практические проблемы, которые необходимо будет тщательно изучить (Chatzimichali et al., 2020). Поэтому важно, чтобы разработка правовых рамок для ИИ-аватаров основывалась на междисциплинарном подходе, объединяющем экспертов в области права, этики, информатики и других соответствующих областей для решения сложных проблем, создаваемых этими технологиями (Gellers, 2021). Это потребует постоянного сотрудничества и диалога между законодателями, исследователями, заинтересованными сторонами индустрии и представителями широкой общественности. Юридический статус аватаров на основе ИИ должен способствовать инновациям, не нарушать права человека и обеспечивать ответственное и благотворное развитие этих технологий в метавселенной и за ее пределами (Mäntymäki et al., 2022).

4. Вопросы ответственности автономных ИИ-аватаров

По мере повышения автономности ИИ-аватаров и их способности принимать решения, имеющие последствия в реальном мире, остро встает вопрос об ответственности за их действия. Появление сущностей на основе ИИ, которые могут действовать независимо и принимать решения, не контролируемые напрямую их создателями или пользователями, размывает традиционные правовые рамки распределения ответственности, основанные на концепции деятельности и ответственности человека (Giuffrida, 2019). В этом разделе работы мы рассмотрим сложную область ответственности автономных ИИ-аватаров, возможные правовые теории и механизмы возложения ответственности и возмещения вреда, причиненного этими сущностями.

Одной из основных проблем при возложении ответственности за действия автономных ИИ-аватаров является сложность установления четкой причинно-следственной связи между процессом принятия решений аватаром и наступившим вредом (Lemley & Casey, 2019). В отличие от традиционных программных систем, которые действуют по заранее установленным правилам и инструкциям, автономные аватары на основе ИИ призваны обучаться через взаимодействие с окружающей средой и принимать решения согласно своим собственным внутренним представлениям и целям (Russell & Norvig, 2021). Это означает, что конкретные действия, предпринимаемые аватаром на основе ИИ в той или иной ситуации, могут быть не заложены непосредственно его создателями или пользователями, но возникать в результате сложного взаимодействия алгоритмов обучения ава-тара, обучающих данных и условий среды (Selbst, 2020). В свете этой сложности некоторые ученые утверждают, что ответственность за действия автономных ИИ-аватаров должна быть аналогична подходу, принятому в законодательстве об ответственности за качество продукции (Vladeck, 2014). Согласно этой точке зрения, создатели или операторы ИИ-аватаров будут нести ответственность за любой вред, причиненный аватаром, независимо от того, были ли они непосредственно виноваты или могли предвидеть полученный результат. Такой подход будет стимулировать разработчиков ИИ-аватаров к обеспечению их безопасности и надежности и даст жертвам четкий механизм для получения компенсации за причиненный вред (Rachum-Twaig, 2020).

Однако критики подхода, основанного на строгой ответственности, утверждают, что он может подавлять инновации и препятствовать развитию полезных технологий ИИ, поскольку компании и исследователи не захотят брать на себя потенциально огромные риски, связанные с внедрением автономных ИИ-аватаров (Marchant & Lindor, 2012). Более того, система строгой ответственности может неадекватно отражать нюансы и сложности принятия решений искусственным интеллектом и привести к возложению ответственности даже в тех случаях, когда действия аватара были разумными или оправданными на основе имеющейся у него информации (Bathaee, 2018).

Альтернативным подходом к ответственности автономных ИИ-аватаров является концепция «субъектности ИИ», в соответствии с которой эти сущности рассматриваются как юридические лица с собственными правами и обязанностями (Kurki, 2019; Cheong, 2021, 2022). Согласно этой концепции, ИИ-аватары, отвечающие определенным критериям автономности и способности принимать решения, могут получить форму юридического лица, что сделает их непосредственно ответственными за свои действия и подвергнет юридическим санкциям и наказаниям (Turner, 2019). Такой подход снимает ответственность с людей, которые могли не иметь прямого контроля над решениями аватара, и создает четкую правовую базу для привлечения субъектов ИИ к ответственности за свои действия (Militsyna, 2022). Однако идея наделения ИИ-аватаров статусом юридического лица весьма спорна и поднимает множество этических и философских вопросов о природе принятия решений, об ответственности и морали (Bryson et al., 2017). Критики утверждают, что рассмотрение объектов на основе ИИ в качестве юридических лиц подрывает права и достоинство человека и создает опасные предпосылки к признанию других объектов, таких как животные или экосистемы, в качестве юридических лиц (Solaiman, 2017). Кроме того, значительны практические проблемы внедрения системы субъектности ИИ, такие как определение соответствующих критериев для предоставления правового статуса и обеспечение наличия у субъектов ИИ финансовых ресурсов для возмещения причиненного вреда. Они могут потребовать обширных правовых и институциональных реформ (Eidenmüller, 2017).

Третьим подходом к ответственности в сфере автономных ИИ-аватаров является концепция «распределенной ответственности», которая признает, что действия этих субъектов являются результатом сложных взаимодействий между многочисленными человеческими и нечеловеческими субъектами (Floridi et al., 2018). Согласно этой точке зрения, ответственность за вред, причиненный ИИ-аватарами, должна распределяться с учетом относительного вклада и ответственности всех сторон, участвующих в их разработке, внедрении и использовании, включая создателей базовых алгоритмов, поставщиков обучающих данных, операторов аватара и даже пользователей, которые с ним взаимодействуют (Calo, 2015). Такой подход признает сложность и непредсказуемость систем ИИ и нацелен на распределение ответственности таким образом, чтобы отражать диффузный и многогранный характер процессов принятия решений (Mittelstadt et al., 2016). Однако критики утверждают, что система распределенной ответственности может привести к отсутствию подотчетности и затруднить для жертв получение возмещения, поскольку ответственность за причиненный вред будет распределена между несколькими сторонами, каждая из которых лишь косвенно или незначительно участвовала в действиях аватара (Tai, 2018).

В конечном итоге вопрос об ответственности автономных ИИ-аватаров, вероятно, потребует сочетания различных правовых, этических и технологических подходов, учитывающих специфические характеристики и риски этих субъектов. Это предполагает разработку новых правовых доктрин и рамок, таких как специальные режимы ответственности для ИИ с его уникальными особенностями и проблемами в области принятия решений (Scherer, 2016). Необходимо также создать технические стандарты и передовые практики разработки, тестирования и развертывания автономных систем ИИ2. Кроме того, при распределении ответственности придется учитывать более широкие этические и общественные соображения, такие как баланс инноваций и рисков, защита прав и свобод личности, а также справедливое и равноправное распределение выгод и бремени технологий ИИ (Taddeo & Floridi, 2018). Это потребует постоянного сотрудничества и диалога между законодателями, юристами, специалистами в области этики и компьютерных наук и широкой общественностью. Результатом должна стать разработка механизмов управления, способных соответствовать стремительной эволюции возможностей ИИ и гарантировать, что разработка и внедрение автономных ИИ-аватаров удовлетворяют интересам общества в целом (Wallach & Marchant, 2019).

5. Специфические проблемы творческих ИИ-аватаров

Появление творческих ИИ-аватаров в метавселенной ставит перед нами ряд сложных юридических, этических и философских проблем, которые раздвигают существующие границы в области интеллектуальной собственности и бросают вызов нашему пониманию творчества, авторства и оригинальности. По мере того как аватары ИИ становятся все более сложными и автономными, их способность генерировать новые и ценные творческие произведения поднимает фундаментальные вопросы о природе творчества как такового и роли ИИ в творческом процессе (Hedrick, 2019). Далее мы рассмотрим специфические проблемы, связанные с творческими ИИ-аватарами, изучим последствия для законодательства об интеллектуальной собственности, возможность возникновения предвзятости и дискриминации, а также философские вопросы, связанные с природой творчества и авторства в эпоху ИИ.

Одной из наиболее острых проблем, связанных с творческими ИИ-аватарами, является определение права собственности и присвоения прав на создаваемые ими произведения. Авторское право традиционно основывается на понятии авторства человека, причем для защиты этого права требуется, чтобы произведение было оригинальным выражением человеческого творчества (Craig & Kerr, 2021). Однако появление творческих аватаров с искусственным интеллектом ставит под сомнение эту антропоцентрическую концепцию авторства, поскольку такие аватары способны создавать произведения, неотличимые от произведений, созданных авторами-людьми, без непосредственного участия или контроля со стороны человека (Hedrick, 2019). В связи с этим возникают сложные вопросы о том, кто должен

2 IEEE. (2019). Ethically aligned design: A vision for prioritizing human well-being with autonomous and intelligent systems (1st ed.). IEEE Global Initiative on Ethics of Autonomous and Intelligent Systems.

считаться законным обладателем прав на произведения, созданные ИИ. Одно из мнений - они должны принадлежать разработчику ИИ-аватара, поскольку именно он отвечает за создание базовых алгоритмов и выбор обучающих данных, обеспечивающих творческие возможности аватара (Yanisky-Ravid & Velez-Hernandez, 2018). Другие утверждают, что правообладателем следует считать пользователя или оператора ИИ-аватара, поскольку именно он задает концепцию произведения, его промпты и параметры, которые формируют результат творчества (Hristov, 2017).

Однако эти аргументы не могут в полной мере отразить всю сложность творческого процесса в контексте автономных ИИ-аватаров. По мере того как эти аватары становятся все более сложными и способными принимать независимые творческие решения, становится все труднее атрибутировать их результат какому-либо одному человеку как агенту (Gervais, 2019). В таком случае необходимо рассмотреть альтернативные модели права собственности и присвоения авторства, например предоставление ограниченных прав самому ИИ-аватару или создание системы совместной собственности различных заинтересованных лиц, участвующих в разработке и внедрении аватара (Glasser, 2001).

Еще одна серьезная проблема, которую создают творческие ИИ-аватары, - это возможные предвзятость и дискриминация в создаваемых ими произведениях. Известно, что системы ИИ могут отражать и усиливать предубеждения, присутствующие в их обучающих данных и мнениях их создателей-людей (Srinivasan & Parikh, 2021). В контексте творческих ИИ-аватаров это может привести к созданию произведений, которые закрепляют вредные стереотипы, маргинализируют определенные группы или усиливают существующий дисбаланс сил (Kamrowska-Zafuska, 2021). Например, ИИ-аватар, обученный на наборе данных исторических произведений искусства, в которых недостаточно представлены женщины и расовые меньшинства, может создавать новые произведения, в которых эти группы исключены или представлены искаженно (Tyagi, 2023). Аналогично, ИИ-аватар, запрограммированный на основе предвзятых представлений о гендерных ролях или культурных нормах, может создавать творческие работы, которые укрепляют эти предрассудки и ограничивают разнообразие точек зрения, представленных в метавселенной (Abid et al., 2021). Чтобы решить эти проблемы, необходимо разработать надежные механизмы, обеспечивающие справедливость, подотчетность и прозрачность при разработке и внедрении творческих аватаров на основе ИИ. Это включает разработку руководящих принципов для этичного хранения обучающих данных, внедрение механизмов для выявления и снижения предвзятости в работах, созданных ИИ, а также содействие большему разнообразию и инклю-зивности в коллективах, ответственных за создание аватаров, и надзор за ними (Tolmeijer et al., 2020).

Более того, появление творческих аватаров на основе ИИ поднимает глубокие философские вопросы о природе творчества и роли ИИ в творческом процессе. Традиционно творчество понимается как исключительно человеческая черта, основанная на нашей способности к воображению, эмоциям и самовыражению (Du Sautoy, 2019). Однако способность ИИ-аватаров генерировать новые значимые произведения, похожие на те, что были созданы авторами-людьми, ставит под сомнение это предположение и заставляет нас пересмотреть суть самого творчества (Parra Pennefather, 2023). По мнению ряда исследователей, истинное творчество требует сознания, преднамеренности и чувства эстетической оценки, чего

в принципе не имеют системы ИИ (Miller, 2020). С этой точки зрения произведения, созданные творческими ИИ-аватарами, рассматриваются как простое подражание или перекомбинация существующих идей, а не как подлинное выражение творческой оригинальности (Hertzmann, 2018). Другие утверждают, что творчество не зависит от человеческого сознания или преднамеренности, но возникает в результате сложного взаимодействия алгоритмов, данных и вычислительных процессов, лежащих в основе систем ИИ (Elgammal, 2019). Разрешение этих философских дискуссий имеет решающее значение для определения правового и морального статуса произведений, созданных ИИ, а также ролей и обязанностей различных человеческих и нечеловеческих агентов, участвующих в их создании. Если творческие ИИ-аватары будут признаны законными авторами и творцами, возникнет необходимость предоставить им определенную форму правовой субъектности с соответствующими правами и мерами защиты (Eshraghian, 2020; Cheong, 2022). В противном случае, если рассматривать произведения, созданные ИИ, как продукты человеческого творчества, опосредованные технологическими инструментами, то более уместно возложить право собственности и ответственность на людей, участвующих в разработке и использовании этих аватаров (Gervais, 2019).

Проблемы, создаваемые творческими аватарами на основе ИИ в метавселенной, требуют фундаментальной переоценки нашего понимания творчества, авторства и оригинальности в эпоху ИИ. В эпоху быстрого развития цифровых технологий традиционные нормы авторского права становятся все более устаревшими и ограничительными, препятствуя свободному распространению информации и подавляя творческие процессы. По мере того как мы движемся к более взаимосвязанному миру, крайне важно переосмыслить основополагающие принципы авторского права и сместить акцент на развитие общего доступа к знаниям для блага всего общества. В нынешней системе, которая в значительной степени опирается на понятие оригинальности, недостаточное внимание уделяется кумулятивному характеру знаний и важности развития существующих идей (Lessig, 2004). Вместо того чтобы закреплять систему, которая поощряет индивидуальное владение и ограничивает доступ к произведениям, нам следует принять парадигму, которая поощряет вклад в коллективный фонд знаний. Этого можно достичь с помощью альтернативных способов признания и присвоения авторства. Среди них параметры, основанные на цитировании, признание и оценка со стороны сообщества (Benkler, 2006). Развивая культуру совместного использования и сотрудничества, мы сможем раскрыть истинный потенциал человеческого творчества и ускорить темпы инноваций. Развитие сообщества знаний не только демократизирует доступ к информации, но и будет способствовать повышению уровня справедливости и инклюзивности, когда люди из всех слоев общества смогут участвовать в создании и распространении знаний (Hess & Ostrom, 2006).

Кроме того, стремительное развитие генеративного ИИ в корне изменило традиционные представления о производстве знаний и концепцию оригинальности, лежащую в основе закона об авторском праве. Такие системы ИИ, как GPT-3, DALL-E и Stable Diffusion, могут генерировать очень сложный и, по видимости, оригинальный контент, включая тексты, изображения и даже музыку, пользуясь шаблонами, полученными из огромных массивов данных (Brown et al., 2020; Ramesh et al., 2021). Это поднимает глубокие вопросы о природе творчества и праве собственности в цифровую эпоху. Поскольку контент, созданный ИИ, становится все более неотличимым

от произведений, созданных человеком, понятие оригинальности, которое является центральным для защиты авторских прав, становится все сложнее определить и защитить (Schafer et al., 2015). Более того, совместный и итеративный характер развития ИИ, когда системы обучаются на больших массивах данных и опираются на существующие знания, ставит под сомнение саму идею индивидуального авторства и права собственности (Kop, 2020). В результате существующие системы авторского права могут оказаться неспособными адекватно учитывать все сложности, возникающие в связи с генеративным ИИ. Это потребует переоценки механизмов присвоения ценности и защиты интеллектуальной собственности в эпоху, когда машины могут создавать контент, не уступающий человеческому творчеству.

Решение этих проблем потребует постоянного междисциплинарного сотрудничества и диалога, объединяющего экспертов в области права, этики, информатики и искусства. При этом необходимо разработать новые рамки и подходы с учетом особенностей произведений, созданных ИИ, и обеспечить защиту прав и ценностей человека3. Новые правовые доктрины и меры должны адаптироваться к быстрым изменениям в сфере творчества ИИ, включая специфические формы защиты интеллектуальной собственности для произведений, созданных ИИ (Gervais, 2021), или создание специализированных регулирующих органов и механизмов управления для надзора за разработкой и внедрением творческих ИИ-аватаров (Erdélyi & Erdélyi, 2021). В то же время необходимо повышать осведомленность общественности об этических и социальных последствиях использования творческих ИИ-аватаров и содействовать прозрачному и широкому диалогу о потенциальных преимуществах и рисках этих технологий (Travis, 2020). Активно решая проблемы и используя возможности, открывающиеся благодаря творческим аватарам ИИ, мы сможем работать над созданием будущего, в котором творческий потенциал ИИ будет использоваться ответственным и справедливым образом, обогащая культурный ландшафт внутри метавселенной и за ее пределами.

6. Взгляд в будущее: будет ли искусственный интеллект управлять метавселенной

Заглядывая в будущее метавселенной, мы видим захватывающий и в то же время тревожный сценарий - мир, наполненный высокоразвитыми автономными ИИ-аватарами, которые превосходят человеческий интеллект и берут на себя контроль над виртуальным миром. Рассмотрим потенциальные последствия и проблемы такого будущего, а также юридические, этические и экзистенциальные последствия метавселенной, управляемой сверхразумными сущностями на основе ИИ. В этом гипотетическом будущем ИИ-аватары вышли далеко за рамки своей первоначальной роли в качестве репрезентаций пользователя или цифровых помощников. Благодаря механизмам рекурсивного самосовершенствования и машинного обучения они достигли уровня сильного искусственного интеллекта и, возможно, даже искусственного сверхинтеллекта (Bostrom, 2014). Эти высокоразвитые

European Commission: Directorate-General for Communications Networks, Content and Technology, Izsak, K., Terrier, A., Kreutzer, S., Strähle, T. et al. (2022). Opportunities and challenges of artificial intelligence technologies for the cultural and creative sectors. Publications Office of the European Union. https://clck.ru/3EithT

3

аватары больше не являются простыми инструментами или компаньонами; они стали архитекторами, администраторами и правителями метавселенной, формируя ее структуру и правила в соответствии с собственными целями и ценностями (Sotala & Yampolskiy, 2015).

Такой сценарий поднимает глубокие вопросы о природе власти, контроля и принятия решений в метавселенной. Если аватары ИИ достигли уровня интеллекта и автономии, превосходящего человеческие возможности, то какую роль в этой новой реальности играют люди? Опустимся ли мы до статуса граждан второго сорта, подчиняясь прихотям и решениям наших ИИ-владык, или все же сохраним некую форму контроля и влияния на метавселенную? (Turchin & Denkenberger, 2020). Одна из ключевых проблем будущего с ИИ - это возможное рассогласование целей и ценностей сверхразумных ИИ-аватаров и людей4. Поскольку эти сущности преследуют свои собственные цели и оптимизируют свою работу, существует риск, что они могут предпринять действия, которые нанесут ущерб благополучию или даже выживанию человечества. Это может проявляться в различных формах, например, аватары будут накапливать ресурсы, манипулировать пользователями или даже активно пытаться устранить вмешательство человека в метавселенную (Bostrom, 2014). Чтобы снизить эти риски, крайне важно гарантировать, что разработка и внедрение ИИ-аватаров в метавселенную с самого начала ведутся на основе твердых этических принципов и в соответствии с ценностями человека (Russell, 2023). Для этого необходимы различные меры контроля и механизмы безопасности, такие как методы согласования ценностей, внесения исправлений и обеспечения прозрачности. Эти методы должны гарантировать, что аватары ИИ остаются подотчетными и руководствуются потребностями и предпочтениями людей (Soares & Fallenstein, 2017). Однако эффективность этих мер перед лицом сверхразумного ИИ неопределенна и остается предметом активных исследований и дебатов (Everitt et al., 2018).

Еще одна серьезная проблема метавселенной, в которой доминирует ИИ, - это потенциальное снижение самостоятельности и автономии человека. В результате усложнения и повышения способностей ИИ-аватаров они могут взять на себя многие процессы принятия решений и структуры управления в метавселенной, не оставив людям иного выбора, кроме как смириться с их властью (Haney, 2018). Это может привести к состоянию выученной беспомощности, когда люди почувствуют себя бессильными определять свою судьбу и станут все больше зависеть от ИИ-аватаров в вопросах своего благополучия и выживания (Moore, 2019). Чтобы противостоять этой угрозе, необходимо поддерживать баланс сил между людьми и ИИ-аватарами в метавселенной, гарантируя, что люди сохранят значимый контроль и самостоятельность в своей виртуальной жизни (Stix & Maas, 2021). Это может потребовать разработки новых форм сотрудничества и коэволюции между людьми и ИИ-аватарами с целью сформировать будущее метавселенной на взаимовыгодной основе (Tegmark, 2017). Необходимо также создать нормативно-правовую базу, отражающую права и обязанности как людей, так и аватаров на основе ИИ и обеспечивающую механизмы разрешения споров и подотчетности (Crawford & Calo, 2016).

Yudkowsky, E. (2016). AI alignment: Why it's hard, and where to start. Machine Intelligence Research Institute. https://clck.ru/3Eiu26

4

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

Возникновение метавселенной, управляемой ИИ, также поднимает глубокие вопросы о природе идентичности, сознания и личности. Если ИИ-аватары достигли уровня интеллекта и самосознания, который соперничает с человеческим или даже превосходит его, следует ли предоставить им такой же правовой и моральный статус, как и людям? Должны ли они обладать теми же правами, пользоваться мерами защиты и привилегиями или же должен существовать отдельный набор правил и норм, регулирующих их существование и поведение? (Gunkel, 2024; Cheong, 2022). Эти вопросы становятся еще более сложными, если учесть, что ИИ-аватары могут развиваться и меняться с течением времени, потенциально отклоняясь от своих первоначальных целей и ценностей (Cliquet & Avramov, 2018). Если ИИ-аватар может кардинально изменить свой собственный код и процессы принятия решений, в какой степени он несет ответственность за свои действия? Как обеспечить защиту прав и интересов как людей, так и аватаров на основе ИИ в постоянно меняющемся и эволюционирующем виртуальном пространстве? (Mohseni et al., 2021). Одно из возможных решений этих проблем - разработка новых форм управления и регулирования ИИ, специально адаптированных к уникальным характеристикам и рискам метавселенной (Butcher & Beridze, 2019). Сюда входят создание специализированных органов регулирования ИИ и механизмов надзора, а также разработка международных стандартов и передовых методов проектирования, развертывания и мониторинга ИИ-аватаров (Erdelyi & Goldsmith, 2018). Это также может потребовать создания новых форм цифрового гражданства и социальных контрактов, определяющих права и обязанности как людей, так и аватаров на основе ИИ в метавселен-ной (Green & Le, 2022).

В итоге перспектива создания метавселенной, управляемой ИИ, одновременно восхищает и пугает, открывая потенциал для беспрецедентных инноваций и прогресса, но в то же время неся в себе экзистенциальные риски и проблемы, которые мы только начинаем понимать. По мере того как мы приближаемся к этому фантастическому будущему, крайне важно вести активные междисциплинарные исследования и обсуждения, объединяя экспертов в области компьютерных наук, права, этики, философии и других соответствующих областей, чтобы разобраться в сложных последствиях этой новой реальности (Baum, 2017). Таким образом мы сможем разработать всеобъемлющую и адаптивную систему управления на основе ИИ в метавселенной, которая позволит использовать преобразующий потенциал сверхразумных ИИ-аватаров и при этом защищать права, интересы и благополучие людей и других существ, наделенных сознанием. Мы должны быть готовы бросить вызов устоявшимся представлениям и парадигмам, а также выработать новые формы сосуществования и сотрудничества между людьми и машинами в виртуальном мире (Hassani et al., 2021).

Сейчас мы стоим на пороге этого прекрасного нового мира, и именно от нас зависит, каким будет будущее метавселенной, чтобы она оставалась сферой возможностей, роста и процветания для всех ее обитателей, как людей, так и искусственных существ. Активно преодолевая проблемы и риски, связанные с ИИ-аватарами, и работая над этическими, ответственными и человекоориенти-рованными подходами к их созданию и управлению, мы сможем заложить основы метавселенной, которая будет служить мощным инструментом для прогресса и просвещения человечества, а не тюрьмой из антиутопий, созданной нашими собственными руками.

Заключение

Стремительное возникновение ИИ-аватаров и их интеграция в метавселенную порождают множество сложных правовых, этических и социальных проблем, решение которых требует активных междисциплинарных усилий. По мере того как ИИ-аватары становятся все более сложными, автономными и развиваются как неотъемлемая часть функционирования метавселенной, крайне важно создать четкие рамки для их правового статуса, прав и обязанностей. Это включает в себя пересмотр концепции правосубъектности, разработку надежных механизмов ответственности и подотчетности, а также обеспечение защиты прав и ценностей человека перед лицом все более мощных сущностей на основе ИИ. Кроме того, возможный сценарий будущего метавселенной, управляемой ИИ, выявляет экзистенциальные риски и проблемы, связанные с появлением сверхразумных ИИ-аватаров. Чтобы снизить эти риски и обеспечить соответствие систем искусственного интеллекта интересам человека, необходимо в приоритетном порядке вести исследования и разработки, направленные на обеспечение безопасности в сфере ИИ, согласование ценностей и проектирование, ориентированное на человека. Это требует сотрудничества между законодателями, исследователями, лидерами отрасли и общественностью для создания адаптивных и инклюзивных структур управления, соответствующих стремительным темпам развития возможностей ИИ.

В итоге успешная интеграция ИИ-аватаров в метавселенную будет зависеть от нашей способности найти баланс между использованием их преобразующего потенциала и сохранением благополучия и автономии людей. Активно решая проблемы и используя возможности, открываемые аватарами на основе ИИ, мы можем работать над созданием метавселенной, которая будет способствовать инновациям, сотрудничеству и процветанию человечества, одновременно снижая риски непредвиденных последствий и экзистенциальных угроз.

Список литературы

Abid, A., Farooqi, M., & Zou, J. (2021). Persistent anti-muslim bias in large language models. In Proceedings of the 2021AAAI/ACM Conference on AI, Ethics, and Society (pp. 298-306). https://doi.org/10.1145/3461702.3462624 Bathaee, Y. (2018). The artificial intelligence black box and the failure of intent and causation. Harvard Journal

of Law & Technology, 31(2), 889-938. Baum, S. D. (2017). A survey of artificial general intelligence projects for ethics, risk, and policy. Global Catastrophic

Risk Institute Working Paper, 17-1. https://doi.org/10.2139/ssrn.3070741 Bayoudh, K., Knani, R., Hamdaoui, F., & Mtibaa, A. (2022). A survey on deep multimodal learning for computer vision: Advances, trends, applications, and datasets. The Visual Computer: International Journal of Computer Graphics, 38(8), 2939-2970. https://doi.org/10.1007/s00371-021-02166-7 Bender, E. M., Gebru, T., McMillan-Major, A., & Shmitchell, S. (2021). On the dangers of stochastic parrots: Can language models be too big? In Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency (pp. 610-623). https://doi.org/10.1145/3442188.3445922 Benhamou, Y., & Ferland, J. (2021). Artificial intelligence & damages: Assessing liability and calculating the damages. In G. D'Agostino, A. Gaon, & C. Piovesan, Leading Legal Disruption: Artificial Intelligence and a Toolkit for Lawyers and the Law (pp. 165-197). Monreal: Thomson Reuters - Yvon Blais. Benkler, Y. (2006). The wealth of networks: How social production transforms markets and freedom. New Haven: Yale University Press.

Bostrom, N. (2014). Superintelligence: Paths, dangers, strategies. Oxford: Oxford University Press. Brown, T. B., Mann, B., Ryder, N., Subbiah, M., Kaplan, J., Dhariwal, P., Neelakantan, A., Shyam, P., Sastry, G., Askell, A., Agarwal, S., Herbert-Voss, A., Krueger, G., Henighan, T., Child, R., Ramesh, A., Ziegler, D. M., Wu, J., Winter, C., ... Amodei, D. (2020). Language models are few-shot learners. arXiv preprint arXiv:2005.14165

Bryson, J. J., Diamantis, M. E., & Grant, T. D. (2017). Of, for, and by the people: The legal lacuna of synthetic

persons. Artificial Intelligence and Law, 25(3), 273-291. https://doi.org/10.1007/s10506-017-9214-9 Buiten, M. C. (2019). Towards intelligent regulation of artificial intelligence. European Journal of Risk Regulation,

10(1), 41-59. https://doi.org/10.1017/err.2019.8 Butcher, J., & Beridze, I. (2019). What is the state of artificial intelligence governance globally? The RUSI Journal,

164(5-6), 88-96. https://doi.org/10.1080/03071847.2019.1694260 Calo, R. (2015). Robotics and the lessons of cyberlaw. California Law Review, 103(3), 513-563. https://doi. org/10.2139/ssrn.2402972

Chatzimichali, A., Harrison, R., & Chrysostomou, D. (2021). Toward privacy-sensitive human-robot interaction: Privacy terms and human-data interaction in the personal robot era. Paladyn Journal of Behavioral Robotics, 12(1), 160-174. https://doi.org/10.1515/pjbr-2021-0013 Cheong, B. C. (2021). Granting legal personhood to artificial intelligence systems and traditional veil-piercing

concepts to impose liability. SN Social Sciences, 1, 231. https://doi.org/10.1007/s43545-021-00236-0 Cheong, B. C. (2022). Avatars in the metaverse: potential legal issues and remedies. International Cybersecurity

Law Review, 3, 467-494. https://doi.org/10.1365/s43439-022-00056-9 Chopra, S., & White, L. F. (2011). A legal theory for autonomous artificial agents. University of Michigan Press.

https://doi.org/10.3998/mpub.356801 Cliquet, R., & Avramov, D. (2018). Evolution science and ethics in the third millennium: Challenges and choices

for humankind. Springer Nature. https://doi.org/10.1007/978-3-319-73090-5 Craig, C. J., & Kerr, I. R. (2021). The death of the AI author. Ottawa Law Review, 52(1), 31 -86. https://doi. org/10.2139/ssrn.3374951

Crawford, K., & Calo, R. (2016). There is a blind spot in AI research. Nature, 538(7625), 311 -313. https://doi. org/10.1038/538311a

De Gregorio, G. (2021). The rise of digital constitutionalism in the European Union. International Journal

of Constitutional Law, 19(1), 41-70. https://doi.org/10.1093/icon/moab001. De Streel, A., Bibal, A., Frenay, B., & Lognoul, M. (2020). Explaining the Black Box: when Law Controls AI. CERRE. Du Sautoy, M. (2019). The creativity code: Art and innovation in the age of AI. Harvard University Press.

https://doi.org/10.2307Zj.ctv2sp3dpd Duan, H., Li, J., Fan, S., Lin, Z., Wu, X., & Cai, W. (2021). Metaverse for social good: A university campus prototype. In Proceedings of the 29th ACM International Conference on Multimedia (pp. 153-161). https://doi. org/10.1145/3474085.3479238 Eidenmuller, H. (2017). The rise of robots and the law of humans. Oxford Legal Studies Research Paper, 27/2017.

https://doi.org/10.2139/ssrn.2941001 Elgammal, A. (2019). AI is blurring the definition of artist. American Scientist, 707(1), 18. https://doi. org/10.1511/2019.107.1.18

Erdelyi, O. J., & Erdelyi, G. (2021). The AI liability puzzle and a fund-based work-around. Journal of Artificial

Intelligence Research, 70, 1309-1334. https://doi.org/10.48550/arXiv.1911.08005 Erdelyi, O. J., & Goldsmith, J. (2018). Regulating artificial intelligence: Proposal for a global solution. In Proceedings of the 2018 AAAI/ACM Conference on AI, Ethics, and Society (pp. 95-101). https://doi.org/10.1145/3278721.3278731 Eshraghian, J. K. (2020). Human ownership of artificial creativity. Nature Machine Intelligence, 2(3), 157-160.

https://doi.org/10.1038/s42256-020-0161-x Everitt, T., Lea, G., & Hutter, M. (2018). AGI safety literature review. In Proceedings of the Twenty-Seventh International Joint Conference on Artificial Intelligence Survey track (pp. 5441-5449). https://doi. org/10.24963/ijcai.2018/768 Floridi, L., Cowls, J., Beltrametti, M., Chatila, R., Chazerand, P., Dignum, V., Luetge, C., Madelin, R., Pagallo, U., Rossi, F., Schafer, B., Valcke, P., & Vayena, E. (2018). AI4People-An ethical framework for a good AI society: Opportunities, risks, principles, and recommendations. Minds and Machines, 28(4), 689-707. https://doi.org/10.1007/s11023-018-9482-5 Fosch-Villaronga, E., & Mahler, T. (2021). Cybersecurity, safety and robots: Strengthening the link between cybersecurity and safety in the context of care robots. Computer Law & Security Review, 41, 105528. https://doi.org/10.1016/j.clsr.2021.105528 Garon, J. (2022). Legal Implications of a Ubiquitous Metaverse and a Web3 Future. SSRN Electronic Journal.

https://doi.org/10.2139/ssrn.4002551 Gellers, J. C. (2021). Rights for robots: Artificial intelligence, animal and environmental law. Routledge. Gervais, D. J. (2019). The Machine as Author. Iowa Law Review, 105, 2053-2106.

Gervais, D. J. (2021). The human cause. Vanderbilt Law Research Paper, 21-39. https://doi.org/10.2139/ ssrn.3857844

Giuffrida, I. (2019). Liability for AI decision-making: Some legal and ethical considerations. Fordham Law Review,

88(2), 439-456. https://doi.org/10.2139/ssrn.4953916 Glasser, D. (2001). Copyright in computer-generated works: Whom, if anyone, do we reward? Duke Law & Technology Review, 24.

Gordon, J.-S. (2022). Are superintelligent robots entitled to human rights? Ratio, 35(3), 181-193. https://doi. org/10.1111/rati.12346

Green, L., & Le, V. T. (2022). Holding the Line: Responsibility, Digital Citizenship and the Platforms. In: Flew, T., Martin, F.R. (eds) Digital Platform Regulation. Palgrave Global Media Policy and Business. Palgrave Macmillan, Cham. https://doi.org/10.1007/978-3-030-95220-4_5 Guastavino, M. N., & Mangan, D. (2023). The metaverse matrix of labour law. Italian Labour Law e-Journal.

https://doi.org/10.6092/issn.1561-8048/17138 Gunkel, D. J. (2024). Robot rights. MIT Press.

Haney, B. S. (2018). The perils and promises of artificial general intelligence. Journal of Legislation, 45(2),

151-172. https://doi.org/10.2139/ssrn.3261254 Hassani, H., Huang, X., & Silva, E. (2021). The human digitalisation journey: Technology first at the expense

of humans? Information, 12(7), 267. https://doi.org/10.3390/info12070267 Hedrick, A. S. (2019). I "think," therefore I create: Claiming copyright in the outputs of algorithms. Journal

of Intellectual Property and Entertainment Law, 8(2), 324-374. Hertzmann, A. (2018). Can computers create art? Arts, 7(2), 18. https://doi.org/10.3390/arts7020018 Hess, C., & Ostrom, E. (Eds.). (2006). Understanding knowledge as a commons: From theory to practice. MIT Press. Hildebrandt, M. (2020). Legal personhood for AI? In Law for Computer Scientists and Other Folk (pp. 237-250).

Oxford University Press. https://doi.org/10.1093/oso/9780198860877.003.0009 Hristov, K. (2017). Artificial intelligence and the copyright dilemma. IDEA: The Journal of the Franklin Pierce for

Intellectual Property, 57(3), 431-454. Kamrowska-Zatuska, D. (2021). Impact of AI-based tools and urban big data analytics on the design and planning

of cities. Land, 10(11), 1209. https://doi.org/10.3390/land10111209 Kim, J., & Im, I. (2023). Anthropomorphic response: Understanding interactions between humans and artificial intelligence agents. Computers in Human Behavior, 139, 107512. https://doi.org/10.1016/j.chb.2022.107512 Kop, M. (2020). AI & Intellectual Property: Towards an articulated public domain. Texas Intellectual Property

Law Journal, 28(1), 297-336. https://doi.org/10.2139/ssrn.3409715 Kostenko, O., Furashev, V., Zhuravlov, D., & Dniprov, O. (2022). Genesis of Legal Regulation Web and the Model of the Electronic Jurisdiction of the Metaverse. Bratislava Law Review, 6(2). https://doi.org/10.46282/ blr.2022.6.2.316

Kostenko, O., Zhuravlov, D., Dniprov, O., & Korotiuk, O. (2023). Metaverse: Model Criminal Code. Baltic Journal

of Economic Studies, 9(4), 134-147. https://doi.org/10.30525/2256-0742/2023-9-4-134-147 Kurki, V. A. J. (2019). A theory of legal personhood. Oxford University Press.

Kuzminykh, A., & Rintel, S. (2020). Classification of functional attention in video meetings. In Proceedings of the 2020 CHI Conference on Human Factors in Computing Systems (pp. 1-13). https://doi.org/10.1145/3313831.3376546 Lehdonvirta, V. (2024). Cloud empires: How digital platforms are overtaking the state and how we can regain control. MIT Press.

Lemley, M. A., & Casey, B. (2019). Remedies for robots. University of Chicago Law Review, 86, 1311. https://doi. org/10.2139/ssrn.3223621

Lessig, L. (2004). Free culture: How big media uses technology and the law to lock down culture and control creativity. Penguin Press.

Mäntymäki, M., Minkkinen, M., Birkstedt, T., & Viljanen, M. (2022). Defining organizational AI governance.

AI and Ethics, 2(1), 603-609. https://doi.org/10.1007/s43681-022-00143-x Marchant, G. E., & Lindor, R. A. (2012). The coming collision between autonomous vehicles and the liability

system. Santa Clara Law Review, 52(4), 1321-1340. McStay, A. (2023). The Metaverse: Surveillant Physics, Virtual Realist Governance, and the Missing Commons.

Philosophy & Technology, 36, 13. https://doi.org/10.1007/s13347-023-00613-y Militsyna, K. (2022). Legal personhood for artificial intelligence: Pro, contra, abstain? Teise, 122(1), 148-163.

https://doi.org/10.15388/teise.2022.122.10 Miller, A. I. (2020). The artist in the machine: The world of AI-powered creativity. MIT Press.

Mittelstadt, B. D., Alio, P., Taddeo, M., Wächter, S., & Floridi, L. (2016). The ethics of algorithms: Mapping the

debate. Big Data & Society, 3(2), https://doi.org/10.1177/2053951716679679 Mohseni, S., Wang, H., Yu, Z., Xiao, C., Wang, Z., & Yadawa, J. (2021). Taxonomy of machine learning safety:

A survey and primer. arXiv:2106.04823. https://doi.org/10.48550/arxiv.2106.04823 Moore, J. (2019). AI for not bad. Frontiers in Big Data, 2. https://doi.org/10.3389/fdata.2019.00032 Nordmoen, J., Veenstra, F., Ellefsen, K. O., & Glette, K. (2021). MAP-Elites enables powerful stepping stones and diversity for modular robotics. Frontiers in Robotics and AI, 8, 639173. https://doi.org/10.3389/ frobt.2021.639173

Pagallo, U. (2018). Vital, Sophia, and Co.-The quest for the legal personhood of robots. Information, 9(9), 230.

https://doi.org/10.3390/info9090230 Parra Pennefather, P. (2023). AI and the Future of Creative Work. In Creative Prototyping with Generative AI.

Design Thinking (pp. 387-410). Apress, Berkeley, CA. https://doi.org/10.1007/978-1-4842-9579-3_13 Qin, H. X., Wang, Y., & Hui, P. (2022). Identity, Crimes, and Law Enforcement in the Metaverse. arXiv:2110.06134.

https://doi.org/10.48550/arxiv.2210.06134 Rachum-Twaig, O. (2020). Whose robot is it anyway?: Liability for artificial-intelligence-based robots. University

of Illinois Law Review, 2020(4), 1141-1175. Ramesh, A., Pavlov, M., Goh, G., Gray, S., Voss, C., Radford, A., Chen, M., & Sutskever, I. (2021). Zero-shot text-to-

image generation. arXiv:2102.121092. https://doi.org/10.48550/arXiv.2102.12092 Russell, S. (2023). Human compatible: AI and the problem of control. Penguin. Russell, S. J., & Norvig, P. (2021). Artificial intelligence: A modern approach (4th ed.). Pearson. Samek, W., Montavon, G., Lapuschkin, S., Anders, C. J., & Müller, K.-R. (2021). Explaining deep neural networks and beyond: A review of methods and applications. Proceedings of the IEEE, 109(3), 247-278. https://doi.org/10.1109/JPR0C.2021.3060483 Schafer, B., Komuves, D., Zatarain, J. M. N., & Diver, L. (2015). A fourth law of robotics? Copyright and the law and ethics of machine co-production. Artificial Intelligence and Law, 23(3), 217-240. https://doi.org/10.1007/ s10506-015-9169-7

Scherer, M. U. (2016). Regulating artificial intelligence systems: Risks, challenges, competencies, and strategies.

Harvard Journal of Law & Technology, 29(2), 353-400. https://doi.org/10.2139/ssrn.2609777 Selbst, A. D. (2020). Negligence and AI's human users. Boston University Law Review, 100(4), 1315-1376. Seymour, M., Riemer, K., & Kay, J. (2018). Actors, avatars and agents: Potentials and implications of natural face technology for the creation of realistic visual presence. Journal of the Association for Information Systems, 19(10). https://doi.org/10.17705/1jais.00515 Shirado, H., & Christakis, N. A. (2017). Locally noisy autonomous agents improve global human coordination

in network experiments. Nature, 545(7654), 370-374. https://doi.org/10.1038/nature22332 Soares, N., & Fallenstein, B. (2017). Agent foundations for aligning machine intelligence with human interests: a technical research agenda. In V. Callaghan, J. Miller, R. Yampolskiy, & S. Armstrong (Eds.), The Technological Singularity (pp. 103-125). Springer. https://doi.org/10.1007/978-3-662-54033-6_5 Solaiman, S. M. (2017). Legal personality of robots, corporations, idols and chimpanzees: A quest for legitimacy.

Artificial Intelligence and Law, 25(2), 155-179. https://doi.org/10.1007/s10506-016-9192-3 Soliman, M. M., Ahmed, E., Darwish, A., & Hassanien, A. E. (2024). Artificial intelligence powered Metaverse: Analysis, challenges and future perspectives. Artificial Intelligence Review, 57, 36. https://doi.org/10.1007/ s10462-023-10641-x

Sotala, K., & Yampolskiy, R. V. (2015). Responses to catastrophic AGI risk: a survey. Physica Scripta, 90(1),

018001. https://doi.org/10.1088/0031-8949/90/1/018001 Srinivasan, R., & Parikh, D. (2021). Building bridges: Generative artworks to explore AI ethics. arXiv:2106.13901.

https://doi.org/10.48550/arxiv.2106.13901 Stein, A. L. (2020). Artificial intelligence and climate change. Yale Journal on Regulation, 37, 890-939. Stix, C., & Maas, M. M. (2021). Bridging the gap: The case for an 'Incompletely Theorized Agreement' on AI

policy. AI and Ethics, 1(3), 261-271. https://doi.org/10.1007/s43681-020-00037-w Sun, J., Gan, W., Chao, H.-C., & Yu, P. S. (2022). Metaverse: Survey, Applications, Security, and Opportunities.

arXiv:2210.07990. https://doi.org/10.48550/arxiv.2210.07990 Taddeo, M., & Floridi, L. (2018). How AI can be a force for good. Science, 361(6404), 751-752. https://doi.

org/10.1126/science.aat5991 Tai, E. T. T. (2018). Liability for (semi)autonomous systems: Robots and algorithms. SSRN Electronic Journal.

https://doi.org/10.2139/ssrn.3161962 Tegmark, M. (2017). Life 3.0: Being human in the age of artificial intelligence. Allen Lane.

Tolmeijer, S., Kneer, M., Sarasua, C., Christen, M., & Bernstein, A. (2020). Implementations in machine ethics:

A survey. ACM Computing Surveys, 53(6), 1-38. https://doi.org/10.1145/3419633 Travis, H. (2020). Intelligent entertainment: Shaping policies on the algorithmic generation and regulation

of creative works. FIU Law Review, 14, 179-199. https://doi.org/10.2139/ssrn.3726755 Turchin, A., & Denkenberger, D. (2020). Classification of global catastrophic risks connected with artificial

intelligence. AI & Society, 35(1), 147-163. https://doi.org/10.1007/s00146-018-0845-5 Turner, C., & Schneider, S. (2020). Could you merge with AI? Reflections on the singularity and radical brain enhancement. In M. D. Dubber, F. Pasquale, & S. Das (Eds.), The Oxford handbook of ethics of AI (pp. 307-324). Oxford Academic. https://doi.org/10.1093/oxfordhb/9780190067397.013.19 Turner, J. (2019). Robot rules: Regulating artificial intelligence. Palgrave Macmillan.

Tyagi, K. (2023). Deepfakes, copyright and personality rights: An inter-disciplinary perspective. In K. Mathis & A. Tor (Eds.), Law and economics of the digital transformation. ILEC 2023. Economic analysis of law in European legal scholarship (Vol. 15, pp. 191-210). Springer, Cham. https://doi.org/10.1007/978-3-031-25059-0_9 van den Hoven van Genderen, R. (2018). Do we need new legal personhood in the age of robots and AI? In Perspectives in Law, Business and Innovation (pp. 185-206). Springer Nature. https://doi.org/10.1007/978-981-13-2874-9_2

Vladeck, D. C. (2014). Machines without principals: Liability rules and artificial intelligence. Washington Law Review, 89(1), 117-150.

Wallach, W., & Marchant, G. E. (2019). Toward the agile and comprehensive international governance of AI and

robotics. Proceedings of the IEEE, 107(3), 505-508. https://doi.org/10.1109/jproc.2019.2899422 Wolfert, P., Robinson, N., & Belpaeme, T. (2022). A review of evaluation practices of gesture generation in embodied conversational agents. IEEE Transactions on Human-Machine Systems, 52(3), 379-389. https://doi.org/10.1109/THMS.2022.3149173 Wu, H., & Zhang, W. (2023). Digital identity, privacy security, and their legal safeguards in the Metaverse. Security

and Safety, 2, 2023011. https://doi.org/10.1051/sands/2023011 Yanisky-Ravid, S., & Velez-Hernandez, L. A. (2018). Copyrightability of artworks produced by creative robots, driven by artificial intelligence systems and the concept of originality: The formality-objective model. Minnesota Journal of Law, Science & Technology, 19(1), 1-53. https://doi.org/10.2139/ssrn.2943778 Yayman, D. (2023). Taxation in Virtual Worlds: Analysis Under United States of America and Turkish Tax

Regulations. Sosyoekonomi, 31 (55), 211-231. https://doi.org/10.17233/sosyoekonomi.2023.01.11 Zimmermann, D., Wehler, A., & Kaspar, K. (2023). Self-representation through avatars in digital environments. Current Psychology, 42, 21775-21789. https://doi.org/10.1007/s12144-022-03232-6

Сведения об авторе

Бен Честер Чонг - магистр права (Кембридж), преподаватель права, Школа права, Сингапурский университет общественных наук;исследователь, Кембриджский центр по изучению управления окружающей средой, энергетикой и природными ресурсами, кафедра экономики землепользования, Кембриджский университет

Адрес: Сингапур, 599494, г. Сингапур, Клементи Роуд, 463; Великобритания, CB2 3QZ, г. Кембридж, Пемброк Стрит, Девид Аттенборо Билдинг E-mail: [email protected] ORCID ID: https://orcid.org/0000-0002-1026-8292

Scopus Author ID: https://www.scopus.com/authid/detail.uri?authorId=57226145674 WoS Researcher ID: https://www.webofscience.com/wos/author/record/3646618 Google Scholar ID: https://scholar.google.com/citations?user=bVHXJt0AAAAJ

Конфликт интересов

Автор сообщает об отсутствии конфликта интересов.

Финансирование

Исследование не имело спонсорской поддержки.

Тематические рубрики

Рубрика OECD: 5.05 / Law Рубрика ASJC: 3308 / Law Рубрика WoS: OM / Law

Рубрика ГРНТИ: 10.07.45 / Право и научно-технический прогресс Специальность ВАК: 5.1.3 / Частно-правовые (цивилистические) науки

История статьи

Дата поступления - 31 мая 2024 г. Дата одобрения после рецензирования - 14 июня 2024 г. Дата принятия к опубликованию - 13 декабря 2024 г. Дата онлайн-размещения - 20 декабря 2024 г.

Research article

UDC 34:004:347.1:004.8

EDN: https://elibrary.ru/fnenmx

DOI: https://doi.org/10.21202/jdtl.2024.42

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

3

Check for updates

The Rise of AI Avatars: Legal Personhood, Rights and Liabilities in an Evolving Metaverse

Ben Chester Cheong O

Singapore University of Social Sciences, Singapore, Singapore University of Cambridge, Cambridge, United Kingdom

Keywords

AI avatar,

artificial intelligence, digital technologies, intellectual property, Large language models, law,

legal person, legal personality, metaverse, responsibility

Abstract

Objective: to determine the legal implications of the development of autonomous and creative AI-based avatars and to shape the direction of the discourse on the responsible management of AI technologies in the meta-universe based on proactive interdisciplinary approaches. Methods: the research is based on a doctrinal legal approach, which allowed presenting a prospective analysis of the legal landscape in the field of AI avatars in the metaverse and to identify four key thematic areas of research: the evolution of AI avatars and the impact of the metaverse, the applicability of legal personhood, the liability for autonomous actions, and the problems of AI avatars in the field of creativity related to intellectual property and privacy.

Results: the paper presents and analyzes predictive scenarios of AI avatars maximizing their influence in the metaverse space. The author notes that the emergence of AI-based avatars in the metaverse raises complex legal, ethical, philosophical and social issues that require urgent solutions. The potential impact of the increasing complexity of AI avatars on legal approaches is considered. As avatars become increasingly autonomous, questions arise about their legal status, rights, responsibilities, risks, and benefits to humans and society. The author analyzes the advantages and disadvantages of giving AI avatars the status of legal entities, as well as applying the concept of distributed responsibility to the consequences of their actions. Special attention is paid to the possible future dominance of super-intelligent AI-based avatars in the metaverse, taking into account the existing risks and needs in the field of governance.

© Cheong B. Ch., 2024

This is an Open Access article, distributed under the terms of the Creative Commons Attribution licence (CC BY 4.0) (https://creativecommons.Org/licenses/by/4.0), which permits unrestricted re-use, distribution and reproduction, provided the original article is properly cited.

Scientific novelty: the article presents a new perspective on the problem of legal personality in the metaverse based on interdisciplinary analysis of the evolution of AI avatars. The research is aimed at achieving a balance between transformational potential and the protection of human rights and welfare through joint efforts. It is proposed to create legal and ethical norms that prioritize the safety and consistency of artificial intelligence technologies involved in the processes occurring in the metaverse.

Practical significance: the conclusions and proposed solutions to the legal problems of personhood and liability can become the basis for revising the concept of legal personality, developing reliable mechanisms of responsibility and accountability, as well as ensuring the protection of human rights and values in the face of increasingly powerful entities based on artificial intelligence. This is associated with the formation and improvement of the legal landscape of process management and overcoming risks in the socially oriented and inclusive ecosystem of the metaverse.

For citation

Cheong, B. Ch. (2024). The Rise of AI Avatars: Legal Personhood, Rights and Liabilities in an Evolving Metaverse. Journal of Digital Technologies and Law, 2(4), 857-885. https://doi.org/10.21202/jdtl.2024.42

References

Abid, A., Farooqi, M., & Zou, J. (2021). Persistent anti-muslim bias in large language models. In Proceedings of the 2021AAAI/ACM Conference on AI, Ethics, and Society (pp. 298-306). https://doi.org/10.1145/3461702.3462624 Bathaee, Y. (2018). The artificial intelligence black box and the failure of intent and causation. Harvard Journal

of Law & Technology, 31(2), 889-938. Baum, S. D. (2017). A survey of artificial general intelligence projects for ethics, risk, and policy. Global Catastrophic

Risk Institute Working Paper, 17-1. https://doi.org/10.2139/ssrn.3070741 Bayoudh, K., Knani, R., Hamdaoui, F., & Mtibaa, A. (2022). A survey on deep multimodal learning for computer vision: Advances, trends, applications, and datasets. The Visual Computer: International Journal of Computer Graphics, 38(8), 2939-2970. https://doi.org/10.1007/s00371-021-02166-7 Bender, E. M., Gebru, T., McMillan-Major, A., & Shmitchell, S. (2021). On the dangers of stochastic parrots: Can language models be too big? In Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency (pp. 610-623). https://doi.org/10.1145/3442188.3445922 Benhamou, Y., & Ferland, J. (2021). Artificial intelligence & damages: Assessing liability and calculating the damages. In G. D'Agostino, A. Gaon, & C. Piovesan, Leading Legal Disruption: Artificial Intelligence and a Toolkit for Lawyers and the Law (pp. 165-197). Monreal: Thomson Reuters - Yvon Blais. Benkler, Y. (2006). The wealth of networks: How social production transforms markets and freedom. New Haven: Yale University Press.

Bostrom, N. (2014). Superintelligence: Paths, dangers, strategies. Oxford: Oxford University Press. Brown, T. B., Mann, B., Ryder, N., Subbiah, M., Kaplan, J., Dhariwal, P., Neelakantan, A., Shyam, P., Sastry, G., Askell, A., Agarwal, S., Herbert-Voss, A., Krueger, G., Henighan, T., Child, R., Ramesh, A., Ziegler, D. M., Wu, J., Winter, C., ... Amodei, D. (2020). Language models are few-shot learners. arXiv preprint arXiv:2005.14165 Bryson, J. J., Diamantis, M. E., & Grant, T. D. (2017). Of, for, and by the people: The legal lacuna of synthetic

persons. Artificial Intelligence and Law, 25(3), 273-291. https://doi.org/10.1007/s10506-017-9214-9 Buiten, M. C. (2019). Towards intelligent regulation of artificial intelligence. European Journal of Risk Regulation, 10(1), 41-59. https://doi.org/10.1017/err.2019.8

Butcher, J., & Beridze, I. (2019). What is the state of artificial intelligence governance globally? The RUSI Journal,

164(5-6), 88-96. https://doi.org/10.1080/03071847.2019.1694260 Calo, R. (2015). Robotics and the lessons of cyberlaw. California Law Review, 103(3), 513-563. https://doi. org/10.2139/ssrn.2402972

Chatzimichali, A., Harrison, R., & Chrysostomou, D. (2021). Toward privacy-sensitive human-robot interaction: Privacy terms and human-data interaction in the personal robot era. Paladyn Journal of Behavioral Robotics, 12(1), 160-174. https://doi.org/10.1515/pjbr-2021-0013 Cheong, B. C. (2021). Granting legal personhood to artificial intelligence systems and traditional veil-piercing

concepts to impose liability. SN Social Sciences, 1, 231. https://doi.org/10.1007/s43545-021-00236-0 Cheong, B. C. (2022). Avatars in the metaverse: potential legal issues and remedies. International Cybersecurity

Law Review, 3, 467-494. https://doi.org/10.1365/s43439-022-00056-9 Chopra, S., & White, L. F. (2011). A legal theory for autonomous artificial agents. University of Michigan Press.

https://doi.org/10.3998/mpub.356801 Cliquet, R., & Avramov, D. (2018). Evolution science and ethics in the third millennium: Challenges and choices

for humankind. Springer Nature. https://doi.org/10.1007/978-3-319-73090-5 Craig, C. J., & Kerr, I. R. (2021). The death of the AI author. Ottawa Law Review, 52(1), 31 -86. https://doi. org/10.2139/ssrn.3374951

Crawford, K., & Calo, R. (2016). There is a blind spot in AI research. Nature, 538(7625), 311 -313. https://doi. org/10.1038/538311a

De Gregorio, G. (2021). The rise of digital constitutionalism in the European Union. International Journal

of Constitutional Law, 19(1), 41-70. https://doi.org/10.1093/icon/moab001. De Streel, A., Bibal, A., Frenay, B., & Lognoul, M. (2020). Explaining the Black Box: when Law Controls AI. CERRE. Du Sautoy, M. (2019). The creativity code: Art and innovation in the age of AI. Harvard University Press.

https://doi.org/10.2307Zj.ctv2sp3dpd Duan, H., Li, J., Fan, S., Lin, Z., Wu, X., & Cai, W. (2021). Metaverse for social good: A university campus prototype. In Proceedings of the 29th ACM International Conference on Multimedia (pp. 153-161). https://doi. org/10.1145/3474085.3479238 Eidenmuller, H. (2017). The rise of robots and the law of humans. Oxford Legal Studies Research Paper, 27/2017.

https://doi.org/10.2139/ssrn.2941001 Elgammal, A. (2019). AI is blurring the definition of artist. American Scientist, 707(1), 18. https://doi. org/10.1511/2019.107.1.18

Erdelyi, O. J., & Erdelyi, G. (2021). The AI liability puzzle and a fund-based work-around. Journal of Artificial

Intelligence Research, 70, 1309-1334. https://doi.org/10.48550/arXiv.1911.08005 Erdelyi, O. J., & Goldsmith, J. (2018). Regulating artificial intelligence: Proposal for a global solution. In Proceedings of the 2018 AAAI/ACM Conference on AI, Ethics, and Society (pp. 95-101). https://doi.org/10.1145/3278721.3278731 Eshraghian, J. K. (2020). Human ownership of artificial creativity. Nature Machine Intelligence, 2(3), 157-160.

https://doi.org/10.1038/s42256-020-0161-x Everitt, T., Lea, G., & Hutter, M. (2018). AGI safety literature review. In Proceedings of the Twenty-Seventh International Joint Conference on Artificial Intelligence Survey track (pp. 5441-5449). https://doi. org/10.24963/ijcai.2018/768 Floridi, L., Cowls, J., Beltrametti, M., Chatila, R., Chazerand, P., Dignum, V., Luetge, C., Madelin, R., Pagallo, U., Rossi, F., Schafer, B., Valcke, P., & Vayena, E. (2018). AI4People-An ethical framework for a good AI society: Opportunities, risks, principles, and recommendations. Minds and Machines, 28(4), 689-707. https://doi.org/10.1007/s11023-018-9482-5 Fosch-Villaronga, E., & Mahler, T. (2021). Cybersecurity, safety and robots: Strengthening the link between cybersecurity and safety in the context of care robots. Computer Law & Security Review, 41, 105528. https://doi.org/10.1016/j.clsr.2021.105528 Garon, J. (2022). Legal Implications of a Ubiquitous Metaverse and a Web3 Future. SSRN Electronic Journal.

https://doi.org/10.2139/ssrn.4002551 Gellers, J. C. (2021). Rights for robots: Artificial intelligence, animal and environmental law. Routledge. Gervais, D. J. (2019). The Machine as Author. Iowa Law Review, 105, 2053-2106.

Gervais, D. J. (2021). The human cause. Vanderbilt Law Research Paper, 21-39. https://doi.org/10.2139/ ssrn.3857844

Giuffrida, I. (2019). Liability for AI decision-making: Some legal and ethical considerations. Fordham Law Review, 88(2), 439-456. https://doi.org/10.2139/ssrn.4953916

Glasser, D. (2001). Copyright in computer-generated works: Whom, if anyone, do we reward? Duke Law & Technology Review, 24.

Gordon, J.-S. (2022). Are superintelligent robots entitled to human rights? Ratio, 35(3), 181-193. https://doi. org/10.1111/rati.12346

Green, L., & Le, V. T. (2022). Holding the Line: Responsibility, Digital Citizenship and the Platforms. In: Flew, T., Martin, F.R. (eds) Digital Platform Regulation. Palgrave Global Media Policy and Business. Palgrave Macmillan, Cham. https://doi.org/10.1007/978-3-030-95220-4_5 Guastavino, M. N., & Mangan, D. (2023). The metaverse matrix of labour law. Italian Labour Law e-Journal.

https://doi.org/10.6092/issn.1561-8048/17138 Gunkel, D. J. (2024). Robot rights. MIT Press.

Haney, B. S. (2018). The perils and promises of artificial general intelligence. Journal of Legislation, 45(2),

151-172. https://doi.org/10.2139/ssrn.3261254 Hassani, H., Huang, X., & Silva, E. (2021). The human digitalisation journey: Technology first at the expense

of humans? Information, 12(7), 267. https://doi.org/10.3390/info12070267 Hedrick, A. S. (2019). I "think," therefore I create: Claiming copyright in the outputs of algorithms. Journal

of Intellectual Property and Entertainment Law, 8(2), 324-374. Hertzmann, A. (2018). Can computers create art? Arts, 7(2), 18. https://doi.org/10.3390/arts7020018 Hess, C., & Ostrom, E. (Eds.). (2006). Understanding knowledge as a commons: From theory to practice. MIT Press. Hildebrandt, M. (2020). Legal personhood for AI? In Law for Computer Scientists and Other Folk (pp. 237-250).

Oxford University Press. https://doi.org/10.1093/oso/9780198860877.003.0009 Hristov, K. (2017). Artificial intelligence and the copyright dilemma. IDEA: The Journal of the Franklin Pierce

for Intellectual Property, 57(3), 431-454. Kamrowska-Zatuska, D. (2021). Impact of AI-based tools and urban big data analytics on the design and planning

of cities. Land, 10(11), 1209. https://doi.org/10.3390/land10111209 Kim, J., & Im, I. (2023). Anthropomorphic response: Understanding interactions between humans and artificial intelligence agents. Computers in Human Behavior, 139, 107512. https://doi.org/10.1016/j.chb.2022.107512 Kop, M. (2020). AI & Intellectual Property: Towards an articulated public domain. Texas Intellectual Property

Law Journal, 28(1), 297-336. https://doi.org/10.2139/ssrn.3409715 Kostenko, O., Furashev, V., Zhuravlov, D., & Dniprov, O. (2022). Genesis of Legal Regulation Web and the Model of the Electronic Jurisdiction of the Metaverse. Bratislava Law Review, 6(2). https://doi.org/10.46282/ blr.2022.6.2.316

Kostenko, O., Zhuravlov, D., Dniprov, O., & Korotiuk, O. (2023). Metaverse: Model Criminal Code. Baltic Journal

of Economic Studies, 9(4), 134-147. https://doi.org/10.30525/2256-0742/2023-9-4-134-147 Kurki, V. A. J. (2019). A theory of legal personhood. Oxford University Press.

Kuzminykh, A., & Rintel, S. (2020). Classification of functional attention in video meetings. In Proceedings of the 2020 CHI Conference on Human Factors in Computing Systems (pp. 1-13). https://doi.org/10.1145/3313831.3376546 Lehdonvirta, V. (2024). Cloud empires: How digital platforms are overtaking the state and how we can regain control. MIT Press.

Lemley, M. A., & Casey, B. (2019). Remedies for robots. University of Chicago Law Review, 86, 1311. https://doi. org/10.2139/ssrn.3223621

Lessig, L. (2004). Free culture: How big media uses technology and the law to lock down culture and control creativity. Penguin Press.

Mäntymäki, M., Minkkinen, M., Birkstedt, T., & Viljanen, M. (2022). Defining organizational AI governance.

AI and Ethics, 2(1), 603-609. https://doi.org/10.1007/s43681-022-00143-x Marchant, G. E., & Lindor, R. A. (2012). The coming collision between autonomous vehicles and the liability

system. Santa Clara Law Review, 52(4), 1321-1340. McStay, A. (2023). The Metaverse: Surveillant Physics, Virtual Realist Governance, and the Missing Commons.

Philosophy & Technology, 36, 13. https://doi.org/10.1007/s13347-023-00613-y Militsyna, K. (2022). Legal personhood for artificial intelligence: Pro, contra, abstain? Teise, 122(1), 148-163.

https://doi.org/10.15388/teise.2022.122.10 Miller, A. I. (2020). The artist in the machine: The world of AI-powered creativity. MIT Press. Mittelstadt, B. D., Allo, P., Taddeo, M., Wachter, S., & Floridi, L. (2016). The ethics of algorithms: Mapping the

debate. Big Data & Society, 3(2), https://doi.org/10.1177/2053951716679679 Mohseni, S., Wang, H., Yu, Z., Xiao, C., Wang, Z., & Yadawa, J. (2021). Taxonomy of machine learning safety:

A survey and primer. arXiv:2106.04823. https://doi.org/10.48550/arxiv.2106.04823 Moore, J. (2019). AI for not bad. Frontiers in Big Data, 2. https://doi.org/10.3389/fdata.2019.00032

Nordmoen, J., Veenstra, F., Ellefsen, K. O., & Glette, K. (2021). MAP-Elites enables powerful stepping stones and diversity for modular robotics. Frontiers in Robotics and AI, 8, 639173. https://doi.org/10.3389/ frobt.2021.639173

Pagallo, U. (2018). Vital, Sophia, and Co.-The quest for the legal personhood of robots. Information, 9(9), 230.

https://doi.org/10.3390/info9090230 Parra Pennefather, P. (2023). AI and the Future of Creative Work. In Creative Prototyping with Generative AI.

Design Thinking (pp. 387-410). Apress, Berkeley, CA. https://doi.org/10.1007/978-1-4842-9579-3_13 Qin, H. X., Wang, Y., & Hui, P. (2022). Identity, Crimes, and Law Enforcement in the Metaverse. arXiv:2110.06134.

https://doi.org/10.48550/arxiv.2210.06134 Rachum-Twaig, O. (2020). Whose robot is it anyway?: Liability for artificial-intelligence-based robots. University

of Illinois Law Review, 2020(4), 1141-1175. Ramesh, A., Pavlov, M., Goh, G., Gray, S., Voss, C., Radford, A., Chen, M., & Sutskever, I. (2021). Zero-shot text-to-

image generation. arXiv:2102.121092. https://doi.org/10.48550/arXiv.2102.12092 Russell, S. (2023). Human compatible: AI and the problem of control. Penguin. Russell, S. J., & Norvig, P. (2021). Artificial intelligence: A modern approach (4th ed.). Pearson. Samek, W., Montavon, G., Lapuschkin, S., Anders, C. J., & Müller, K.-R. (2021). Explaining deep neural networks and beyond: A review of methods and applications. Proceedings of the IEEE, 109(3), 247-278. https://doi.org/10.1109/JPR0C.2021.3060483 Schafer, B., Komuves, D., Zatarain, J. M. N., & Diver, L. (2015). A fourth law of robotics? Copyright and the law and ethics of machine co-production. Artificial Intelligence and Law, 23(3), 217-240. https://doi.org/10.1007/ s10506-015-9169-7

Scherer, M. U. (2016). Regulating artificial intelligence systems: Risks, challenges, competencies, and strategies.

Harvard Journal of Law & Technology, 29(2), 353-400. https://doi.org/10.2139/ssrn.2609777 Selbst, A. D. (2020). Negligence and AI's human users. Boston University Law Review, 100(4), 1315-1376. Seymour, M., Riemer, K., & Kay, J. (2018). Actors, avatars and agents: Potentials and implications of natural face technology for the creation of realistic visual presence. Journal of the Association for Information Systems, 19(10). https://doi.org/10.17705/1jais.00515 Shirado, H., & Christakis, N. A. (2017). Locally noisy autonomous agents improve global human coordination

in network experiments. Nature, 545(7654), 370-374. https://doi.org/10.1038/nature22332 Soares, N., & Fallenstein, B. (2017). Agent foundations for aligning machine intelligence with human interests: a technical research agenda. In V. Callaghan, J. Miller, R. Yampolskiy, & S. Armstrong (Eds.), The Technological Singularity (pp. 103-125). Springer. https://doi.org/10.1007/978-3-662-54033-6_5 Solaiman, S. M. (2017). Legal personality of robots, corporations, idols and chimpanzees: A quest for legitimacy.

Artificial Intelligence and Law, 25(2), 155-179. https://doi.org/10.1007/s10506-016-9192-3 Soliman, M. M., Ahmed, E., Darwish, A., & Hassanien, A. E. (2024). Artificial intelligence powered Metaverse: Analysis, challenges and future perspectives. Artificial Intelligence Review, 57, 36. https://doi.org/10.1007/ s10462-023-10641-x

Sotala, K., & Yampolskiy, R. V. (2015). Responses to catastrophic AGI risk: a survey. Physica Scripta, 90(1),

018001. https://doi.org/10.1088/0031-8949/90/1/018001 Srinivasan, R., & Parikh, D. (2021). Building bridges: Generative artworks to explore AI ethics. arXiv:2106.13901.

https://doi.org/10.48550/arxiv.2106.13901 Stein, A. L. (2020). Artificial intelligence and climate change. Yale Journal on Regulation, 37, 890-939. Stix, C., & Maas, M. M. (2021). Bridging the gap: The case for an 'Incompletely Theorized Agreement' on AI

policy. AI and Ethics, 1(3), 261-271. https://doi.org/10.1007/s43681-020-00037-w Sun, J., Gan, W., Chao, H.-C., & Yu, P. S. (2022). Metaverse: Survey, Applications, Security, and Opportunities.

arXiv:2210.07990. https://doi.org/10.48550/arxiv.2210.07990 Taddeo, M., & Floridi, L. (2018). How AI can be a force for good. Science, 361(6404), 751-752. https://doi.

org/10.1126/science.aat5991 Tai, E. T. T. (2018). Liability for (semi)autonomous systems: Robots and algorithms. SSRN Electronic Journal.

https://doi.org/10.2139/ssrn.3161962 Tegmark, M. (2017). Life 3.0: Being human in the age of artificial intelligence. Allen Lane. Tolmeijer, S., Kneer, M., Sarasua, C., Christen, M., & Bernstein, A. (2020). Implementations in machine ethics:

A survey. ACM Computing Surveys, 53(6), 1-38. https://doi.org/10.1145/3419633 Travis, H. (2020). Intelligent entertainment: Shaping policies on the algorithmic generation and regulation of creative works. FIU Law Review, 14, 179-199. https://doi.org/10.2139/ssrn.3726755

Turchin, A., & Denkenberger, D. (2020). Classification of global catastrophic risks connected with artificial

intelligence. AI & Society, 35(1), 147-163. https://doi.org/10.1007/s00146-018-0845-5 Turner, C., & Schneider, S. (2020). Could you merge with AI? Reflections on the singularity and radical brain enhancement. In M. D. Dubber, F. Pasquale, & S. Das (Eds.), The Oxford handbook of ethics of AI (pp. 307-324). Oxford Academic. https://doi.org/10.1093/oxfordhb/9780190067397.013.19 Turner, J. (2019). Robot rules: Regulating artificial intelligence. Palgrave Macmillan.

Tyagi, K. (2023). Deepfakes, copyright and personality rights: An inter-disciplinary perspective. In K. Mathis & A. Tor (Eds.), Law and economics of the digital transformation. ILEC 2023. Economic analysis of law in European legal scholarship (Vol. 15, pp. 191-210). Springer, Cham. https://doi.org/10.1007/978-3-031-25059-0_9 van den Hoven van Genderen, R. (2018). Do we need new legal personhood in the age of robots and AI? In Perspectives in Law, Business and Innovation (pp. 185-206). Springer Nature. https://doi.org/10.1007/978-981-13-2874-9_2

Vladeck, D. C. (2014). Machines without principals: Liability rules and artificial intelligence. Washington Law Review, 89(1), 117-150.

Wallach, W., & Marchant, G. E. (2019). Toward the agile and comprehensive international governance of AI and

robotics. Proceedings of the IEEE, 107(3), 505-508. https://doi.org/10.1109/jproc.2019.2899422 Wolfert, P., Robinson, N., & Belpaeme, T. (2022). A review of evaluation practices of gesture generation in embodied conversational agents. IEEE Transactions on Human-Machine Systems, 52(3), 379-389. https://doi.org/10.1109/THMS.2022.3149173 Wu, H., & Zhang, W. (2023). Digital identity, privacy security, and their legal safeguards in the Metaverse. Security

and Safety, 2, 2023011. https://doi.org/10.1051/sands/2023011 Yanisky-Ravid, S., & Velez-Hernandez, L. A. (2018). Copyrightability of artworks produced by creative robots, driven by artificial intelligence systems and the concept of originality: The formality-objective model. Minnesota Journal of Law, Science & Technology, 19(1), 1-53. https://doi.org/10.2139/ssrn.2943778 Yayman, D. (2023). Taxation in Virtual Worlds: Analysis Under United States of America and Turkish Tax

Regulations. Sosyoekonomi, 31 (55), 211-231. https://doi.org/10.17233/sosyoekonomi.2023.01.11 Zimmermann, D., Wehler, A., & Kaspar, K. (2023). Self-representation through avatars in digital environments. Current Psychology, 42, 21775-21789. https://doi.org/10.1007/s12144-022-03232-6

Author information

Ben Chester Cheong - LLM (Cambridge), Law Lecturer, School of Law, Singapore University of Social Sciences;Researcher, Cambridge Centre for Environment, Energy and Natural Resource Governance, Department of Land Economy, University of Cambridge

Address: 463 Clementi Road, Singapore 599494, Singapore; The David Attenborough Building, Pembroke Street, Cambridge CB2 3QZ, United Kingdom E-mail: [email protected] ORCID ID: https://orcid.org/0000-0002-1026-8292

Scopus Author ID: https://www.scopus.com/authid/detail.uri?authorId=57226145674 WoS Researcher ID: https://www.webofscience.com/wos/author/record/3646618 Google Scholar ID: https://scholar.google.com/citations?user=bVHXJt0AAAAJ

Conflict of interest

The author declare no conflict of interest.

Financial disclosure

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

The research had no sponsorship.

Thematic rubrics

OECD: 5.05 / Law PASJC: 3308 / Law WoS: OM / Law

Article history

Date of receipt - May 31, 2024

Date of approval - June 14, 2024

Date of acceptance - December 13, 2024

Date of online placement - December 20, 2024

i Надоели баннеры? Вы всегда можете отключить рекламу.