Тихоокеанский регион: экономика, политика, право. 2022. Т. 24, № 1. С. 214-224. Pacific Rim: Economics, Politics, Law. 2022. Vol. 24, no. 1. Р. 214-224.
Научная статья УДК 34.03:004.8(592.3)
https://doi.org/10.24866/1813-3274/2022-1/214-224
ОСНОВЫ НАЦИОНАЛЬНОГО РЕГУЛИРОВАНИЯ ПРИМЕНЕНИЯ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА: ОПЫТ СИНГАПУРА
Роман Игоревич Дремлюга
Дальневосточный федеральный университет, 690922, Россия, Владивосток, о. Русский, пос. Аякс, 10, корпус D, dreamluck@yandex.ru
Аннотация. Искусственный интеллект (ИИ) - это технология, которая изменила все сферы человеческой жизни. Зачастую для регулирования отношений по поводу использования искусственного интеллекта применяется фрагментирован-ный подход, когда в каждой области применения данной технологии складывается своё отличающееся нормативное поле. Эта основная тенденция имеет два последствия. С одной стороны, есть конкретные вопросы, которые не охватываются ни нормативными актами, ни исследовательской повесткой. С другой стороны, существует лишь относительно небольшое количество доктринальных исследований и нормативных актов, которые касаются общих этических или правовых проблем, создаваемых ИИ. Вместе с тем, существует и другой путь формирования нормативных правил использования ИИ, когда на национальном уровне формулируются общие принципы и положения регулирования сферы применения искусственного интеллекта. Одной из таких стран является Сингапур. Подход данной страны к регулированию отношений по поводу использования искусственного интеллекта выбран для исследования в данной статье. Сингапур является лидером цифровой трансформации в мире согласно различным показателям. В статье подробно рассматриваются принципы, зафиксированные в Рамочной модели регулирования ИИ. Хотя документ носит необязывающий характер Рамочной модели регулирования ИИ, многие компании Сингапура приняли на себя обязательство руководствоваться её принципами и нормами. Свод норм, содержащихся в Рамочной модели регулирования ИИ, определяет общий характер национального регулирования применения искусственного интеллекта в Сингапуре. Согласно документу, вся регламентация отношений по поводу использования ИИ должна строиться на двух принципах: ИИ должен быть объяснимым, прозрачным и справедливым (один принцип) и че-
© Дремлюга Р. И., 2022 214 PACIFIC RIM: Economics, Politics, Law ■ 2022 ■ Vol. 24 ■ No. 1
ловекоцентричным (другой). Авторы подробно рассматривают содержание основных принципов регулировании ИИ в Сингапуре. В статье делается вывод, что подход Сингапура отличается от российского, хотя некоторые принципы Рамочной модели регулирования ИИ коррелируют с положениями, закреплёнными в российском национальном кодексе этики ИИ. В российском варианте много внимания уделяется различным аспектам безопасности ИИ (информационной, работы с данными, непричинения вреда), что не отражено в качестве ключевых принципов в основном документе нормативной регламентации ИИ Сингапура.
Ключевые слова: искусственный интеллект, право и этика ИИ, киберправо, право Сингапура, право и этика информационных технологий, гуманистический подход, объяснимость ИИ, прозрачность ИИ, справедливость ИИ.
Финансирование: Исследование выполнено при финансовой поддержке РФФИ в рамках научного проекта № 18-29-16129.
Для цитирования: Дремлюга Р. И. Основы национального регулирования применения искусственного интеллекта: опыт Сингапура // Азиатско-Тихоокеанский регион: экономика, политика, право. 2022. Т. 24, № 1. С. 214-224. https://doi.org/10.24866/1813-3274/2022-1/214-224.
Original article
BASICS OF NATIONAL REGULATION OF ARTIFICIAL INTELLIGENCE: THE EXPERIENCE OF SINGAPORE
Roman Igorevich Dremliuga, Far Eastern Federal University, 690922, Russia, Vladivostok, Fr. Russian, Ajax, 10, building D, dreamluck@yandex.ru
Abstract. Artificial Intelligence is a technology that has changed all areas of human life. A fragmented approach is popular in AI regulation, where each area of application of this technology develops its distinct regulatory field. This significant trend has two implications. On the one hand, specific issues are out of either regulations or the research agenda. On the other hand, and more disruptively, there are relatively few doctrinal studies and rules that address AI's general ethical or legal challenges. However, there is another way of shaping the regulatory rules for the use of AI, where general principles and provisions are formulated at the national level to regulate the field of artificial intelligence. The present research is focused on studying the Singapore's approach to regulating relations regarding the use of artificial intelligence. According to various indicators, Singapore is a leader in digital transformation in the world. The paper reviews the principles enshrined in the AI Regulatory Framework. Although the document is non-binding in the
AI Regulatory Framework, many Singapore companies have committed to comply with its principles and norms. The Code of Conduct contained within the AI Regulatory Framework sets out the overall national regulation of AI in Singapore. According to the document, all rules regarding the use of AI must rely on two principles: AI must be explainable, transparent, fair (one principle), and human-centric. The authors consider the content of the basic principles of AI regulation in Singapore. The paper concludes that Singapore's approach differs from the Russian one, although some of the Framework Model of AI regulation principles correlate with the provisions enshrined in the Russian national code of ethics for AI. The Russian version focuses a lot on various aspects of AI security (information, data handling, non-harm), which are not crucial principles in the main document of Singapore's AI regulation.
Keywords: artificial intelligence, AI law and ethics, cyber law, Singapore law, information technology law and ethics, humanistic approach, AI explainability, AI transparency, fair AI.
Financial Support: The study was supported by the Russian Foundation for Basic Research within the framework of research project No. 18-29-16129.
For citation: Dremliuga R. I. Basics of national regulation of artificial intelligence: the experience of Singapore // PACIFIC RIM: Economics, Politics, Law. 2022. Vol. 2022, no. 1. Р. 214-224. https://doi.org/10.24866/1813-3274/2022-1/214-224.
В последние годы искусственный интеллект является предметом обширных и ожесточённых дебатов на международной арене и в большинстве стран мира. Озабоченность проблемой использования ИИ затрагивает государства, международные организации, негосударственных субъектов, корпорации, предприятия, научные круги и гражданское общество в широком смысле. Эти обсуждения охватывают технологические, экономические и социально-политические аспекты, а иногда этические и правовые вопросы, связанные с ИИ.
Особенно выделяется вопрос нормативных ограничений и правил применения ИИ. Так, этические и правовые аспекты, связанные с интеллектуальными системами, стали предметом многочисленных научных исследований [1; 2; 3; 4]. В большинстве из них рассматриваются отдельные или специфические аспекты, такие как использование ИИ в навигации морских судов [5] или смертоносных автономных системах вооружений [6]. Зачастую авторы предлагают совершенно разные подходы к регулированию отношений по поводу применения ИИ в своих областях использования технологии. Следовательно, согласно преобладающей тенденции применение ИИ должно по-разному регулироваться в различных сферах. Эта основная тенденция имеет два последствия. С одной стороны, есть конкретные вопросы, которые не охватываются ни нормативными актами, ни исследовательской повесткой. С другой стороны,
существует лишь относительно небольшое количество доктринальных исследований и нормативных актов, которые касаются общих этических или правовых проблем, создаваемых ИИ. В результате отраслевая и фрагментарная перспектива преобладает над целостным и комплексным подходом.
Вместе с тем существует и другой путь формирования нормативных правил использования ИИ, в некоторых странах в разной форме на национальном уровне формулируются общие принципы и положения регулирования сферы применения искусственного интеллекта. К таким странам относится и Россия, в которой в рамках сотрудничества крупных ИТ-компаний, государственных органов и академической среды был подписан национальный кодекс этики искусственного интеллекта1. Данный документ определил не только основные принципы регулирования сферы применения ИИ, но и обозначил требования, которые должны выполняться при разработке и использовании ИИ. Хотя Россия и добилась существенных успехов в вопросах цифровизации, она пока не является мировым лидером в данном вопросе. Для исследования вопроса регулирования применения искусственного интеллекта был бы крайне интересен опыт государств, которые возглавляют мировые независимые рейтинги по вопросам цифровизации. Подобный анализ позволил бы выявить перспективные направления развития Российской нормативной базы права и этики ИИ.
К мировым лидерам цифровизации относится, например, Сингапур. Так, он лидирует по нескольким индикаторам в мировых рейтингах конкурентоспособности, подготовленных под эгидой мирового экономического форума (англ. - World Economic Forum), в рамках изданий глобального отчёта о конкурентоспособности в 2019 и 2020 гг. (англ. - The Global Competitiveness Report Insight Report 2019 [7], The Global Competitiveness Report Special Edition 2020 [8]). Сингапур является третьим по уровню проработки законодательства, связанного с цифровой экономикой. Данная страна в рейтинге 2020 г. занимает 6-е место по уровню внедрения информационно-коммуникационных технологий и наличию у своего населения цифровых навыков. В отчёте 2019 г. рассматриваемая страна заняла абсолютное первое место по конкурентоспособности в рамках Индустрии 4.0. (цифровой экономики). При этом Сингапур схож с Россией по некоторым параметрам, которые влияют на развитие цифровой экономки. Согласно упомянутому отчету в Сингапуре низкий уровень свободы СМИ. Также следует отметить длительную несменяемость лидирующей партии власти. Следовательно, опыт Сингапура может быть крайне полезен для развития российской нормативной базы в сфере регулирования применения искусственного интеллекта.
Основным документом, на который опирается Сингапур в вопросах права и этики искусственного интеллекта, является Рамочная модель регулирования ИИ
1 В России подписан «Кодекс этики искусственного интеллекта», https://rg.ru/2021/10/26/v-rossii-podpisan-kodeks-etiki-iskusstvennogo-intellekta.html
(The Model AI Governance Framework) [9]. Схема, опубликованная Комиссией по защите персональных данных (PDPC), является руководством, которому следует большинство разработчиков ИИ в Сингапуре. Второе издание данного документа было представлено в январе 2020 г. на ежегодной встрече Всемирного экономического форума в Давосе, Швейцария [10].
Нормы и принципы, обозначенные в Рамочной модели регулирования ИИ, носят добровольный характер. Документ содержит рекомендации по вопросам, которые необходимо рассмотреть при оценке конкретного использования технологии ИИ, и мерам, которые могут быть реализованы для укрепления доверия к ней. В Рамочной модели регулирования ИИ приводятся также рекомендации по принятию разумных мер по приведению внутренней политики, структур и процессов частных компаний и государственных структур в соответствие с соответствующей практикой управления и защиты данных.
Несмотря на необязывающий характер Рамочной модели регулирования ИИ, многие компании Сингапура приняли на себя обязательство руководствоваться её принципами и нормами. Многие технологические компании имплементировали также нормы документа в корпоративные документы, сделав мягкие рекомендации обязательными для своих сотрудников. Это - частая практика, когда рамочное регулирование вопросов по поводу применения ИИ становится обязывающим посредством добровольного принятия. Так же произошло с национальным Кодексом этики в сфере искусственного интелекта в России [18]. После опубликования документа многие Российские ИТ-компании и исследовательские учреждения признали для себя положения кодекса в качестве обязательных.
Как гласит Рамочная модель регулирования ИИ, вся регламентация отношений по поводу использования ИИ должна строиться на двух принципах: ИИ должен быть объяснимым, прозрачным и справедливым (англ. - explainable, transparent and fair), ИИ должен быть человекоцентричным (англ. - human-centric). В нормативном документе используется сразу три характеристики - explainable, transparent and fair для обозначения первого принципа. Во многих доктринальных источниках и нормативных документах перечисленные выше термины упоминаются в качестве отдельных принципов использования ИИ [11; 12]. Объяснимость - свойство ИИ, которое отражает степень его понятности для внешнего наблюдателя. В контексте регламентации общественных отношений по поводу использования ИИ речь идёт, прежде всего, о том, что общество понимает, как ИИ принимает решение. Это не означает, что внешний наблюдатель должен понимать, какие коэффициенты использует нейронная сеть, на которой построен ИИ. Подразумевается, что понятны общие принципы работы и ясно, как результаты, которые выдаёт ИИ, связаны с данными, поступающими в систему.
Прозрачность ИИ - отчасти близкое к Объяснимости свойство. Прозрачность также означает возможность осуществления общественного контроля за ра-
ботой интеллектуальной системы. Прозрачность как свойство ИИ можно понимать в двух контекстах: юридическая прозрачность (возможность доступа к коду программы, несмотря на закреплённые в национальном законодательстве режимы интеллектуальной собственности или коммерческой тайны) и прозрачность в применении алгоритма (понимание, как работает алгоритм).
Зарубежный опыт показывает, что, являясь разработкой частных компаний, зачастую интеллектуальные алгоритмы защищены законами о защите интеллектуальной собственности и коммерческой тайне. На практике это означает, что ни законодательные органы, приобретающие программное обеспечение, ни третьи лица не имеют доступа к исходному коду и технической документации продукта [13]. В результате оператор алгоритма (например, законодательный орган) не имеет возможности узнать, какие процессы происходят во время обработки данных и, следовательно, как алгоритм принимает то или иное решение. Поэтому необходимо принудительно заставлять компании раскрывать обществу принципы работы и описание реализации ИИ [14]. Особенно это касается случаев, когда ИИ принимает решения, существенно влияющие на жизнь людей. Например, такие, как юридически значимые решения (принятие решения о назначении штрафа, отказ в государственной услуге и т. д.) или решения, касающиеся жизни и здоровья (постановка диагноза, назначение лечения).
Наличие доступа к исходному коду алгоритма и коэффициентам не является гарантией того, что механизм принятия нормотворческих решений искусственным интеллектом (далее - ИИ) станет более прозрачным. Как показывают некоторые исследования, несмотря на высокую точность и надёжность применяемых алгоритмов, их работа часто остается чёрным ящиком для пользователя с точки зрения того, как они генерируют решения или прогнозы на основе входных данных. В этом смысле прозрачность не означает объяснимости и наоборот.
Справедливость как свойство ИИ зачастую означает, что решения, принимаемые интеллектуальной системой, будут свободны от различного рода дискриминационных предубеждений, свойственных людям. В научной литературе и нормативных документах к таким предубеждениям относится дискриминация на расовой, культурной, гендерной почве [15]. Пожалуй, наиболее обсуждаемый случай использования несправедливого ИИ - это интеллектуальное программное обеспечение, помогающее судьям судов США определить риск повторного совершения преступления. Согласно независимому журналистскому расследованию программа использовалась при принятии различных решений на стадиях уголовного судопроизводства, от вынесения решения о залоге до принятия решения об условно-досрочном освобождении. Оказалось, что данная система не лишена недостатков и, при прочих равных свойствах, прогнозирует более высокие риски повторного совершения преступлений для чернокожих американцев [16]. Данное расследование вызвало большой общественный резонанс, и справедливость решений и суждений, выносимых ИИ,
стала предметом обсуждения во многих странах. Теперь принцип справедливости закреплён в большинстве документов, касающихся сферы применения ИИ.
Человекоцентричность означает, что правила Рамочной модели регулирования ИИ, прежде всего, должны принимать во внимание природу человека, его права и свободы, его потребности, его творческий потенциал. То есть правила, закреплённые в документе, в первую очередь должны создаваться в интересах людей. Закрепление данного принципа достаточно спорно. Человекоцентричность априори является свойством любых социальных правил, будь то этические или юридические нормы. Об этом говорят многие исследователи в России и за рубежом, среди них декан юридической школы Сингапурского национального университета Саймон Честерман в одной из своих работ [17]. Учёный, который является известным специалистом в сфере этики и права ИИ, использовал термин антропоцентричный ^п-thropocentric) как характеристику современного права. Антропоцентричность и человекоцентричность, по сути, синонимы. То есть человекоцентризм социальных норм - очевидный факт, и его не следует обозначать как отдельный принцип в своде норм для регулирования отношений по поводу использования и разработки искусственного интеллекта. Скорее, человекоцентричность является общим принципом - как права, так и этики.
Кроме того, в приведённой выше работе антропоцентризм употреблялся как негативная характеристика права в контексте его применимости для регулирования отношений по поводу использования ИИ. Антропоцентризм права означает его неспособность работать с другими автономными субъектами, кроме людей и различных форм их организации (юридические лица, государства, НКО). Таким образом, человекоцентризм, скорее, является препятствием для того, чтобы современные этика и право регламентировали общественные отношения по поводу использования ИИ.
Документ раскрывает, что под человекоцентричностью подразумевается использование ИИ для расширения человеческих возможностей, защиты интересов человека, включая защиту интересов людей, а также их благополучия и безопасности. Эти требования должны быть первоочередными при проектировании, разработке и развертывании ИИ в Сингапуре. Такой список характеристик скорее напоминает «человеко-ориентированный и гуманистический подход», который упоминается в российском национальном кодексе этики искусственного интеллекта. Как отмечается в национальном «Кодексе этики в сфере искусственного интеллекта», принятом в нашей стране, «технологии ИИ должны способствовать или не препятствовать реализации всех потенциальных возможностей человека для достижения гармонии в социальной, экономической, духовной сфере и наивысшего расцвета личности, учитывать ключевые ценности, такие как: сохранение и развитие когнитивных способностей человека и его творческого потенциала; сохранение нравственных, духовных и культурных ценностей; содействие культурному и языково-
му многообразию, самобытности; сохранение традиций и устоев наций, народов, этносов и социальных групп» (Статья 1.1) [18].
Принцип, декларируемый в Рамочной модели регулирования ИИ Сингапура, скорее можно обозначить как гуманистический подход. В центре регулирования находятся отношения по поводу использования технологии и её характеристики, но при этом должны учитываться, прежде всего, ценности, права и свободы граждан, возможности раскрытия их творческого и интеллектуального потенциала, а также культурные особенности. Это не человекцентризм, поскольку нормы документа касаются в основном характеристик ИИ и особенностей его применения. Но человек и его потребности в данном случае являются единицей измерения допустимости использования ИИ.
Гуманистический подход предполагает оценку влияния применения ИИ на его пользователей, общество и окружающую среду. Необходимо разрабатывать и внедрять решения, которые не наносят вреда и способствуют улучшению жизни людей и общества [19]. При этом, как справедливо отмечают некоторые авторы, по умолчанию внедрение любой технологии - это шаг на пути к дегуманизации [20]. Технология заменяет человека, вытесняет его из сферы принятия решений, уменьшает его понимание и контроль за происходящим. Следовательно, закрепление данного принципа необходимо, поскольку априори любая технология антигуманистична, если не заставить её разработчика и оператора применять её, ориентируясь на человека и его ценности, права, свободы и потребности.
Подводя итоги, отметим, что в основе регулирования - как применения, так и разработки - искусственного интеллекта в Сингапуре лежат принципы объяснимо-сти, прозрачности и справедливости интеллектуальных систем. Регулирование ИИ в Сингапуре подразумевает также гуманистический подход, который означает, что необходимо разрабатывать и внедрять интеллектуальные системы, которые не наносят вреда и способствуют улучшению жизни людей и общества. Подход Сингапура отличается от российского, хотя некоторые принципы Рамочной модели регулирования ИИ коррелируют с положениями, закреплёнными в российском национальном кодексе этики ИИ. В российском варианте много внимания уделяется различным аспектам безопасности ИИ (информационной, работы с данными, непричинения вреда), что не отражено в качестве ключевых принципов в основном документе нормативной регламентации ИИ Сингапура.
Список литературы
1. Бегишев И. Р., Хисамова З. И. Искусственный интеллект и уголовный закон : монография. Москва : Проспект, 2021. 192 а
2. Васильев А. А., Печатнова Ю. В. Искусственный интеллект и право: проблемы, перспективы // Российско-азиатский правовой журнал. 2020. № 2. С 14-18.
3. Дремлюга Р. И., Дремлюга О. А. Искусственный интеллект - субъект права: аргументы за и против // Правовая политика и правовая жизнь. 2019. № 2. C. 120-125.
4. Филипова И. А. Трансформация правового регулирования труда в цифровом обществе. Искусственный интеллект и трудовое право. Нижний Новгород : Национальный исследовательский Нижегородский государственный университет им. Н. И. Лобачевского, 2019. 89 c.
5. Гаврилов В. В., Дремлюга Р. И. Актуальные вопросы международно-правового регулирования плавания морских судов без экипажа // Московский журнал международного права. 2020. № 2. C. 65-76.
6. Egeland K. Lethal Autonomous Weapon Systems under International Humanitarian Law. Nordic Journal of International Law. 2016. No. 85(2). P. 89-118.
7. The global competitiveness report insight report 2019 // World Economic Forum / ed. by K. Schwab. URL: http://www3.weforum.org/docs/WEF_The GlobalCompet-itivenessReport2019.pdf.
8. The global competitiveness report special edition 2020 // World Economic Forum / ed. by K. Schwab. URL: http://www3.weforum.org/docs/WEF_TheGlobalCom petitivenessReport2020.pdf.
9. The Model AI Governance Framework first edition. URL: https://ai.bsa. org/wp-content/uploads/2019/09/Model-AI-Framework-First-Edition.pdf.
10. Model AI governance framework. Second edition. URL: https://www.pdpc. gov.sg/-/media/Files/PDPC/PDF-Files/Resource-for-Organisation/AI/SGModelAIGovFra mework2.pdf.
11. Floridi L., Cowls J. A unified framework of five principles for AI in society // Philosophical Studies Series. 2021. Vol. 144. P. 5-17.
12. Engstrom D. F., Ho D. E. Algorithmic accountability in the administrative state // Yale Journal on Regulation. 2020. Vol. 37 (3). P. 800-854.
13. Burrell J. How the machine 'thinks': Understanding // Big Data & Society. 2016. Vol. 1-2, January-June. P. 1-12.
14. Kaminski M. E. Binary governance: Lessons from the GDPR'S approach to algorithmic accountability // Southern Califor-nia Law Review. 2019. Vol. 92 (6). P. 1529-1616.
15. Gentzel M. Biased face recognition technology used by government: A problem for liberal democracy // Philosophy and Technology. 2021. Vol. 34 (4). P. 1639-1663.
16. Zone of ethics. Propublica. 2016. URL: https://www.propublica.org/article/ machine-bias-risk-assessments-in-criminal-sentencing
17. Chesterman S. Artificial intelligence and the problem of autonomy // Notre Dame Journal on Emerging Technologies. 2020. Vol. 1, iss. 2. P. 211-250.
18. Кодексе этики в сфере искусственного интеллекта. URL: https://a-ai.m/wp-content/uploads/2021/10/%D0%9A%D0%BE%D0%B40/oD0%B5%D0%BA% D 1%81_%D 1%8D%D 1 %82%D0%B8%D0%BA%D0%B8_%D0%B2_%D 1%81%D 1% 84%D0%B5%D1%80%D0%B5_%D0%98%D0%98_0/oD1%84%D0%B8%D00/oBD%D0 %B0%D0%BB%D1%8C%D0%BD%D1%8B%D0%B9.pdf. (In Russ.).
19. Xu L. The dilemma and countermeasures of AI in educational application // ACM International Conference Proceeding Series. Zhuhai, 2020. P. 289-294.
20. Oviatt S. Technology as infrastructure for dehumanization: three hundred million people with the same face // ICMI 2021 - Proceedings of the 2021 International Conference on Multimodal Interaction. Montréal, 2021. P. 278-287.
Информация об авторе
Р. И. Дремлюга - кандидат юридических наук, профессор Института математики и компьютерных технологий, Дальневосточный федеральный университет, г. Владивосток, Россия.
References
1. Begishev I. R., Khisamova Z. I. Artificial intelligence and criminal law: monograph. Moscow: Prospekt Publ., 2021. 192 p. (In Russ.).
2. Vasiliev A. A., Pechatnova Yu. V. Artificial intelligence and law: problems, prospects. Rossiisko-aziatskiipravovoi zhurnal, 2020, no. 2, pp. 14-18. (In Russ.).
3. Dremlyuga R. I., Dremlyuga O. A. Artificial intelligence as a subject of law: arguments for and against. Pravovayapolitika ipravovaya zhizn', 2019, no. 2, pp. 120-125. (In Russ.).
4. Filipova I. A. Transformation of legal regulation of labor in a digital society. Artificial intelligence and labor law. Nizhny Novgorod, 2019. 89 p. (In Russ.).
5. Gavrilov V. V., Dremlyuga R. I. Topical issues of international legal regulation of navigation of sea vessels without a crew. Moskovskii zhurnal mezhdunarodnogo prava, 2020, no. 2, pp. 65-76. (In Russ.).
6. Egeland K. Lethal autonomous weapon systems under international humanitarian law. Nordic Journal of International Law, 2016, no. 85 (2), pp. 89-118.
7. Schwab K. (ed.). The global competitiveness report insight report 2019. World Economic Forum. URL: http://www3.weforum.org/docs/WEF_TheGlobalCompetitiv enessReport2019.pdf.
8. Schwab K. (ed.). The global competitiveness report special edition 2020. World Economic Forum. URL: http://www3.weforum.org/docs/WEF_TheGlobalCompe titivenessReport2020.pdf.
9. The Model AI Governance Framework. First edition. URL: https://ai.bsa.org/ wp-content/uploads/2019/09/Model-AI-Framework-First-Edition.pdf.
10. Model AI governance framework. Second edition. URL: https://www.pdpc. gov.sg/-/media/Files/PDPC/PDF-Files/Resource-for-Organisation/AI/SGModelAIGovFr amework2.pdf.
11. Floridi L., Cowls J. A unified framework of five principles for AI in society. Philosophical Studies Series, 2021, vol. 144, pp. 5-17.
12. Engstrom D. F., Ho D. E. Algorithmic accountability in the administrative state. Yale Journal on Regulation, 2020, vol. 37 (3), pp. 800-854.
13. Burrell J. How the machine 'thinks': Understanding. Big Data & Society, 2016, vol. 1-2, January-June, pp. 1-12.
14. Kaminski M. E. Binary governance: Lessons from the GDPR'S approach to algorithmic accountability. Southern Califor-nia Law Review, 2019, vol. 92 (6), pp.1529-1616.
15. Gentzel M. Biased face recognition technology used by government: A problem for liberal democracy. Philosophy and Technology, 2021, vol. 34 (4), pp. 1639-1663.
16. Zone of ethics. Propublica. 2016. URL: https://www.propublica.org/article/ma chine-bias-risk-assessments-in-criminal-sentencing
17. Chesterman S. Artificial intelligence and the problem of autonomy. Notre Dame Journal on Emerging Technologies, 2020, vol. 1, iss. 2, pp. 211-250.
18. Code of ethics in the field of artificial intelligence. URL: https://a-ai.ru/wp-content/uploads/2021/10/%D0%9A%D0%BE%D0%B4%D0%B50/oD0%BA%D 1 %81 % D 1%8D%D 1 %82%D0%B8%D0%BA%D0%B 8_%D0%B2_%D 1%81%D 1 %84%D0%B 5%D1%80%D0%B5_%D0%98%D0%98_%D1%84%D0%B8%D0%BD%D0%B0%D0 %BB%D 1 %8C%D0%BD%D 1%8B%D0%B9.pdf .
19. Xu L. The dilemma and countermeasures of AI in educational application. ACM International Conference Proceeding Series, Zhuhai, 2020, pp. 289-294.
20. Oviatt S. Technology as infrastructure for dehumanization: three hundred million people with the same face. ICMI2021 - Proceedings of the 2021 International Conference on Multimodal Interaction, Montréal, 2021, pp. 278-287.
Information about the author
R. I. Dremliuga - Candidate of Law, Professor of the Institute of Mathematics and Computer Technologies, Vladivostok, Russia.