Научная статья на тему 'Искусственный интеллект в политике ЕС и КНР'

Искусственный интеллект в политике ЕС и КНР Текст научной статьи по специальности «Социальная и экономическая география»

CC BY
2
0
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
искусственный интеллект / этика / права человека / Европейский союз / Китай / ценности / artificial intelligence / ethics / human rights / European Union / China / values

Аннотация научной статьи по социальной и экономической географии, автор научной работы — Литвак Николай Витальевич, Помозова Наталья Борисовна

В статье проанализированы концепции регулирования процессов внедрения ИИ с точки зрения этики, конкуренции, безопасности. Тема искусственного интеллекта за несколько лет из академических исследований и футуристических дискуссий перешла в практическую область. Скорость и масштаб внедрения технологии и ее перспективы приводят в замешательство политиков, бизнесменов, разработчиков систем ИИ и обычных граждан. В результате сравнительного исследования подходов Евросоюза и Китая к проблематике искусственного интеллекта выявлены общие и отличительные черты, которые в первую очередь обусловлены ценностными различиями. Неуверенность все больше определяет действия европейских политиков, что может способствовать идеологически предопределенному проигрышу в конкуренции в новой технологической области. Сделан вывод, что возможно, Евросоюз в будущем будет вынужден использовать элементы китайского прагматического подхода к ИИ.

i Надоели баннеры? Вы всегда можете отключить рекламу.

Похожие темы научных работ по социальной и экономической географии , автор научной работы — Литвак Николай Витальевич, Помозова Наталья Борисовна

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

Artificial Intelligence in the Politics of the EU and China

The article analyzed different concepts of the regulation of the artificial intelligence in the context of the competition between EU and China. In just the last few years artificial intelligence has evolved from academic research and futuristic discussions into the most dynamically developing practice. The speed and scale of implementation of this technology, and even more so, the prospects, are confusing an increasing number of people ‒ from politicians and businessmen to ordinary citizens and the developers of these AI systems themselves. As a result of a comparative interdisciplinary study of the approaches of the European Union and China to the topic of artificial intelligence, common and distinctive features that are determined by value differences have been identified. The main difference, according to the Europeans themselves, is ethics based on the European understanding of human rights. Modern China, challenging global primacy, is promoting its concept in this area. The examples of problems of ethics, competition, and security show the differences in the regulation of AI implementation processes, as well as the uncertainty that increasingly determines the actions of European politicians. This may contribute to an ideologically determined loss in competition in the field of artificial intelligence. It is possible that, despite solemn statements, Europe will have to use elements of the Chinese pragmatic approach to the problem.

Текст научной работы на тему «Искусственный интеллект в политике ЕС и КНР»

Современная Европа, 2024, № 4, с. 30-44

УДК 327

ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ В ПОЛИТИКЕ ЕС И КНР

© 2024 ЛИТВАК Николай Витальевич

Доктор социологических наук, профессор Кафедра философии им. А.Ф. Шишкина, МГИМО МИД России 119454, Россия, Москва, пр-т Вернадского, 76 E-mail: [email protected]

© 2024 ПОМОЗОВА Наталья Борисовна

Доктор социологических наук Ведущий научный сотрудник Факультета мировой экономики и мировой политики ЦКЕМИ ВШЭ 119017, Россия, Москва, ул. Малая Ордынка, д. 17 E-mail: [email protected]

Поступила в редакцию 17.01.2024 Принята к публикации 02.07.2024

Аннотация. В статье проанализированы концепции регулирования процессов внедрения ИИ с точки зрения этики, конкуренции, безопасности. Тема искусственного интеллекта за несколько лет из академических исследований и футуристических дискуссий перешла в практическую область. Скорость и масштаб внедрения технологии и ее перспективы приводят в замешательство политиков, бизнесменов, разработчиков систем ИИ и обычных граждан. В результате сравнительного исследования подходов Евросоюза и Китая к проблематике искусственного интеллекта выявлены общие и отличительные черты, которые в первую очередь обусловлены ценностными различиями. Неуверенность все больше определяет действия европейских политиков, что может способствовать идеологически предопределенному проигрышу в конкуренции в новой технологической области. Сделан вывод, что возможно, Евросоюз в будущем будет вынужден использовать элементы китайского прагматического подхода к ИИ.

Ключевые слова: искусственный интеллект, этика, права человека, Европейский союз, Китай, ценности

DOI: 10.31857/S020170832404003X

Компьютеризация, цифровизация и внедрение технологий искусственного интеллекта (ИИ) привели к значительным изменениям в обществе и повлияли на государственную политику. Стремительно растут инвестиции в сфере ИИ. К уже существующим гигантам ИТ-отрасли - «Бигтех» (Big Tech), «Большой пятерке», или GAMAM, в которые входят компании «Гугл» (Google), реорганизованная в 2015 г. в холдинг «Алфабет» (Alphabet), «Амазон» (Amazon), «Мета» (Meta)1, «Эпл» (Apple), «Майкрософт» (Microsoft), - сегодня причисляют «Нетфликс» (Netfix), «Энвидиа» (Nvidia), «Адоуби» (Adobe), «Интел» (Intel), «Ай-би-эм» (IBM). Постоянно расширяется область применения искусственного интеллекта. Внедрение ИИ оказало значительно влияние на потребительский рынок. Лидерами в области разработки технологий выступают американские компании, Евросоюз и КНР также обратили внимание на эту сферу. Несмотря на то что в качестве целей внедрения ИИ заявлены «облегчение нашей жизни», «в конечном итоге повышение благосостояние лю-" 2

дей»2, правозащитные организации указывают на становление тотального контроля над обществом со стороны частных компаний и государств с использованием новых технологий.

Европа и Китай: проблемы и противоречия

Евросоюз начал движение к всеохватывающему регулированию искусственного интеллекта в 2018 г. За прошедшее время выпущен большой пакет документов, основные из которых - Декларация о сотрудничестве в области искусственного интеллекта3, Рекомендации Европейской комиссии в области ИИ4, скоординированные планы по ИИ 20185 и 2021 гг.1, «Белая книга» по ИИ2 и др. Европарламент

1 Организация признана экстремистской и запрещена на территории РФ. - Прим. ред.

2 Proposal for a Regulation of the European Parliament and of the Council laying down Harmonised Rules on Artificial Intelligence (Artificial Intelligence Act) and amending certain Union legislative acts. COM (2021) 206 final. European Commission. 21.04.2021 URL: https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=CELEX:52021PC0206 (дата обращения: 16.01.2024).

3 Declaration of Cooperation on AI. 10.04.2018. URL: https://digital-strategy.ec.europa.eu/en/news/eu-member-states-sign-cooperate-artificial-intelligence (дата обращения: 16.01.2024).

4 Communication from the Commission to the European Parliament, the European Council, the Council, the Council, the European Economic and Social Committee and the Committee of the Regions Artificial Intelligence for Europe. COM (2018) 237 final. 25.04.2018. URL: https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=COM%3A2018%3A237%3AFIN (дата обращения: 16.01.2024).

5 Communication from the Commission to the European Parliament, the European Council, the Council, the European Economic and Social Committee and the Committee of the Regions Coordinated Plan on Artificial Intelligence. COM (2018) 795 final. 07.12.2018. URL: https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=CELEX%3A52018DC0795 (дата обращения: 16.01.2024).

принял ряд резолюций, которые касаются этических аспектов, гражданской ответственности, защиты фундаментальных прав3. Итоговый документ в этой области -Закон (Регламент) ЕС об ИИ (Artificial Intelligence Act, далее - Закон об ИИ, ЗИИ)4. Трудный путь его согласования в формате переговоров Еврокомиссии, Европарла-мента и Совета ЕС завершился политическим соглашением 8 декабря 2023 г.

Китай опубликовал национальную стратегию в июле 2017 г. В плане «Искусственный интеллект нового поколения» названа 81 цель его развития до 2030 г. Он включает, в частности, этические аспекты и минимизацию рисков, связанных с изменениями структуры занятости и нарушениями прав частных лиц5. В июне 2019 г. сформулированы восемь принципов разработки этического регулирования искусственного интеллекта: гармония и дружелюбие, честность и справедливость, ин-клюзивность, уважение к частной жизни, безопасность и управляемость, общая ответственность, открытое сотрудничество, гибкое управление6. В 2021 г. опубликован Этический кодекс ИИ нового поколения, в котором поставлена цель интеграции этики в весь жизненный цикл искусственного интеллекта и сформулированы шесть этических принципов для физических и юридических лиц: повышение бла-

1 Coordinated Plan on Artificial Intelligence 2021 Review. URL: https://digital-strategy.ec.europa.eu/en/library/coordinated-plan-artificial-intelligence-2021-review (дата обращения: 16.01.2024).

2 White Paper On Artificial Intelligence: A European approach to excellence and trust. 19.02.2020. COM (2020) 65 final. URL: https://commission.europa.eu/publications/white-paper-artificial-intelligence-european-approach-excellence-and-trust_en (дата обращения: 16.01.2024).

3 European Parliament resolution of 20 October 2020 with recommendations to the Commission on a framework of ethical aspects of artificial intelligence, robotics and related technologies. (2020/2012(INL)). URL: https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=celex:52020IP0275; European Parliament resolution of 20 October 2020 on the Digital Services Act and fundamental rights issues posed (2020/2022(INI)). URL: https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=CELEX%3A52020IP0274; European Parliament resolution of 20 October 2020 with recommendations to the Commission on a civil liability regime for artificial intelligence (2020/2014(INL)). URL: https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=CELEX%3A52020IP0276 (дата обращения: 16.01.2024).

4 Regulation (EU) 2024/1689 of the European Parliament and of the Council of 13 June 2024 laying down harmonised rules on artificial intelligence and amending Regulations (EC) No 300/2008, (EU) No 167/2013, (EU) No 168/2013, (EU) 2018/858, (EU) 2018/1139 and (EU) 2019/2144 and Directives 2014/90/EU, (EU) 2016/797 and (EU) 2020/1828 (Artificial Intelligence Act). URL: http://data.europa.eu/eli/reg/2024/1689/oj (дата обращения: 20.07.2024)

5 Ш—{{AI^f^Mi+ÄJ. Ш^. 2017. 35^. [План развития искусственного интеллекта нового поколения. Государственный комитет по развитию и реформам. 2017. № 35]. 08.07.2017. URL: https://www.gov.cn/zhengce/content/2017-07/20/content_5211996.htm (дата обращения: 16.01.2024).

6 ЖШШШАХ^Ш : Ш—^АХ^Ш^ЩШШ^. ЖЙ [Разработка ответственного искусственного интеллекта: принципы управления искусственным интеллектом нового поколения. Министерство науки и технологий]. 17.06.2019. URL: https://www.most.gov.cn/kjbgz/201906/t20190617_147107.html (дата обращения: 16.01.2024).

госостояния человека, содействие справедливости, защита конфиденциальности и безопасности, обеспечение управляемости и достоверности данных, усиление ответственности, повышение этической грамотности1.

По итогам анализа документов в области регулирования ИИ можно выделить следующие проблемы: разноплановые интересы, сложность контроля, трудовые ресурсы, рыночная конкуренция, этика и безопасность.

Разноплановые интересы. Эта проблема присуща в первую очередь Евросоюзу. В процессе регулирования ИИ в ЕС задействованы многие стороны с различными интересами. С одной стороны, ряд бизнесменов выступает против ограничений на разработку систем ИИ, чтобы получить прибыль и занять ведущее положение на рынке. С другой - доминирующие компании, которые не инвестировали в развитие этой технологии, стремятся сохранить долю рынка. В политической сфере интересы чиновников, отвечающих за инновации и экономический рост, сталкиваются с целями тех, кто осуществляет надзор, занимается поиском нарушений. Противоположны позиции, например, комитетов по промышленному развитию и по правам человека. Тем не менее большинство евродепутатов выступили за полный запрет некоторых технологий, прежде всего, автоматического распознавания лиц.

Сложность контроля. Проблема понимания технологий ИИ характерна как для ЕС, так и для КНР и порождает вопрос о доверии к целям разработки программного обеспечения. В «Белой книге» ЕС заявлено, что «люди должны иметь возможность контролировать данные, генерируемые с помощью этих инструментов» и необходимо «повысить прозрачность и свести к минимуму риск предвзятости или ошибки, системы ИИ должны разрабатываться таким образом, чтобы люди могли понимать (основу) своих действий»2. Согласно статье 3 проекта Закона об ИИ, «"система искусственного интеллекта" (система ИИ) означает программное обеспечение, которое разработано с использованием одного или нескольких методов и подходов, перечисленных в Приложении I, и которое может для заданного набора целей, определенных человеком, генерировать такие результаты, как контент, прогнозы, рекомендации или решения, влияющие на среду, с которой он взаимодействует». К подходам и методам в приложении относятся «подходы к машинному обучению, включая обучение контролируемое, неконтролируемое и обучение с подкреплением... логические и основанные на знаниях подходы, включая представление знаний, индуктивное (логическое) программирование. (символические) рассуждения и экспертные системы; статистические подходы, байесовские методы оценки, поиска и оптимизации»3.

Не каждый знаком с этой терминологией. В частности, неконтролируемое обучение - это аспект проблемы «черного ящика», которую программисты считают

1 Ш—[Этический кодекс искусственного интеллекта нового поколения. Министерство науки и технологий]. 26.09.2021. URL: https://www.most.gov.cn/kjbgz/202109/t20210926_177063.html (дата обращения: 16.01.2024).

2 White Paper On Artificial Intelligence.

3 Proposal for a Regulation...

основным риском со стороны ИИ1 и с которой авторы закона предлагают бороться с помощью алгоритмической прозрачности. Однако специалисты не знают, как ее достичь.

В китайском этическом кодексе2 подчеркивается необходимость повысить осведомленность в области искусственного интеллекта среди всех слоев населения, а также активно развивать ответственные исследования и разработки в области ИИ.

В документе министерства иностранных дел КНР от ноября 2022 г. «Позиция Китайской Народной Республики по усилению этического управления искусственным интеллектом», который можно расценивать как заявку на глобальное лидерство в этой области, указано, что «Китай считает важным улучшить понимание всеми странами этики ИИ и обеспечить, чтобы ИИ был безопасным, надежным, управляемым и мог способствовать глобальному устойчивому развитию и повышению общего благосостояния всего человечества»3. Такой подход - отличительная черта современного внешнеполитического дискурса Китая.

Трудовые ресурсы. Влияние ИИ на занятость соответствует предшествующим этапам технологического развития: машины заменяют людей в областях, где работа последних может быть выполнена экономически выгоднее. Возрастает потребность в специалистах новых профессий, что дает возможность переквалифицироваться некоторым работникам. Если цифровизация происходила за счет автоматизации труда специалистов средней квалификации, то ИИ может заменить низкоквалифицированных рабочих4. По этой причине Китай уделяет значительное внимание образованию. В Плане развития искусственного интеллекта нового поколения подчеркнута необходимость «создать в начальных и средних школах курсы, связанные с искусственным интеллектом, и постепенно продвигать образование в области программирования»5.

Евросоюз делает акцент на инклюзивность: «Европа должна стремиться увеличить число людей, обучающихся ИИ и поощрять разнообразие. Больше женщин и людей различного происхождения, включая людей с ограниченными возможностями, необходимо вовлекать в развитие ИИ, начиная с инклюзивного образования и обучения ИИ, чтобы гарантировать, что ИИ является недискриминационным и ин-клюзивным»6. Согласно Европейской декларации цифровых прав и принципов, «цифровая трансформация должна способствовать созданию справедливого и ин-

1 См., например: Pause Giant AI Experiments: An Open Letter. Fture of Life Institute. 22.03.2023. URL: https://futureoflife.org/open-letter/pause-giant-ai-experiments/ (дата обращения: 16.01.2024).

2 План развития искусственного интеллекта нового поколения.

3 [Позиция Китайской Народной Республики по усилению этического управления искусственным интеллектом/Министерство иностранных дел КНР]. 17.11.2022. URL: https://www.mfa.gov.cn/wjb_673085/zfxxgk_674865/gknrlb/tywj/zcwj/202211/t20221117_1097 6728.shtml (дата обращения: 16.01.2024).

4 Там же.

5 План развития искусственного интеллекта нового поколения.

6 Artificial Intelligence for Europe.

клюзивного общества и экономики в ЕС... приносить пользу всем, достигать тендерного баланса»1.

Рыночная конкуренция. Системы ИИ масштабно финансируются не для повышения благосостояния людей, а для увеличения прибыли. «Буржуазия путем эксплуатации всемирного рынка сделала производство и потребление всех стран космополитическим. Исконные национальные отрасли промышленности уничтожены и продолжают уничтожаться с каждым днем. Их вытесняют новые отрасли промышленности, введение которых становится вопросом жизни для всех цивилизованных наций» [Маркс, Энгельс, 1955]. Технологии, программное обеспечение, базы данных и т. д. выступают интеллектуальной собственностью, главными активами и коммерческой тайной ИТ-компаний. По этой причине в условиях развития ИИ контроль над бизнесом становится критически важным. Однако в вопросе регулирования искусственного интеллекта предлагаются декларации вместо решений, например: «обязательства по повышению прозрачности не окажут непропорционально сильного воздействия на право на защиту интеллектуальной собственности, поскольку они будут ограничены информацией, строго необходимой для того, чтобы люди могли реализовать свое право на эффективную правовую защиту и прозрач-ность...»2. В китайских документах зафиксированы намерения четко следовать «разделению функций правительства и рынка», но при этом «использовать преимущества правительства в планировании и руководстве, обеспечении безопасности, рыночном регулировании, соблюдении экологических и формулировании этических норм»3.

Этика и безопасность. Во всех рассмотренных документах обсуждаются этические аспекты использования искусственного интеллекта: права, безопасность, доверие, прозрачность. На основе документа Еврокомиссии «Укрепление доверия к человекоориентированному искусственному интеллекту»4 группа экспертов высокого уровня по ИИ выпустила рекомендации по этике для заслуживающего доверия искусственного интеллекта5. Согласно краткой формуле, ИИ должен быть законным (соблюдать все применимые законы и правила), этичным (уважать этические принципы и ценности), надежным как с технической точки зрения, так и с учетом социальной среды.

Основная цель ЗИИ - безопасность людей. В документе риски классифицированы таким образом: неприемлемые, а значит, запрещенные как противоречащие ценностям ЕС; высокие для здоровья, безопасности или основных прав - регулируемые, и минимальные6.

1 European Declaration on Digital Rights and Principles. 23.01.2023. URL: https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=OJ:JOC_2023_023_R_0001 (дата обращения: 16.01.2024).

2 Proposal for a Regulation...

3 План развития искусственного интеллекта нового поколения.

4 Building Trust in Human-Centric Artificial Intelligence. C0M/2019/168 final. 08.04.2019. URL: https://eur-lex.europa.eu/legal-content/EN/ALL/?uri=CELEX%3A52019DC0168 (дата обращения: 16.01.2024).

5 Ethics guidelines for trustworthy AI. 08.04.2019. URL: https://digital-strategy.ec.europa.eu/en/library/ethics-guidelines-trustworthy-ai (дата обращения: 16.01.2024).

6 Proposal for a Regulation.

В группу неприемлемого риска включены «системы искусственного интеллекта, которые используют подсознательные методы ниже порога сознания человека для существенного изменения его поведения таким образом, что это причиняет или может причинить физический или психологический вред этому человеку или третьей стороне. используют возможные уязвимости, обусловленные возрастом или физической или умственной неполноценностью. предназначенные для оценки или установления рейтинга надежности физических лиц. на основе их социального поведения или известных или прогнозируемых личностных характеристик». Запрещено «использование систем удаленной биометрической идентификации "в реальном времени" в общедоступных местах в целях обеспечения правопорядка», за исключением ряда случаев, для которых требуется разрешение судебного органа. Однако «в должным образом обоснованной чрезвычайной ситуации можно начать использовать систему без разрешения и запрашивать авторизацию уже во время использования или по ее окончании»1.

11 октября 2023 г. в Китае был опубликован проект основных требований безопасности для служб генеративного искусственного интеллекта2. В предложенном для компаний стандарте детально описаны риски и процедуры надзора, которые применяются к данным, используемым для обучения моделей; контента, сгенерированного ими и другие меры. В документе определен 31 риск, среди которых: «подстрекательство к свержению государственной власти и социалистического строя; то, что ставит под угрозу национальную безопасность. разжигание сепаратизма или подрыв национального единства и социальной стабильности; пропаганда терроризма или экстремизма; пропаганда национальной ненависти или этнической дискриминации; пропаганда насилия». Запрещен контент, содержащий дискриминацию по этносу, убеждениям, национальному и гендерному признакам. В числе коммерческих рисков -нарушение прав интеллектуальной собственности, разглашение коммерческой тайны, «использование алгоритмов, данных, платформ и т. д. для ведения монополистической или недобросовестной конкуренции». Для физических лиц и их прав - угроза физическому или психическому здоровью, оскорбление репутации или чести, нарушение права на неприкосновенность частной жизни и личной информации. Таким образом, многие черты китайского подхода к регулированию ИИ на практике являются универсальными.

Некоторые оценки и факты

Если в документах КНР отмечается, что «Китай все еще находится в процессе индустриализации, и. разрыв по сравнению с развитыми странами велик... Способность к самостоятельному развитию инноваций слаба. высокотехнологичное

1 Там же.

2 Basic Safety Requirements for Generative Artificial Intelligence Services (Draft for Feedback). Chinese National Information Security Standardization Technical Committee. 11.11.2023. URL: https://www.tc260.org.cn/upload/2023-10-11/1697008495851003865.pdf (дата обращения: 16.01.2024).

оборудование сильно зависит от зарубежных стран»1, то европейским свойственна амбициозность. Евросоюз упоминается как лидер, имеющий «давнюю традицию академического превосходства», «признанный лидер в области робототехники» и в инновационных стартапах. Из этого, с точки зрения ЕС, следуют блестящие перспективы в области искусственного интеллекта. Евросоюз стремится к лидерству в области разработки ИИ: «ЕС должен быть впереди технологических разработок в области искусственного интеллекта»2. Закон об ИИ направлен на «превращение Евросоюза в ведущего мирового игрока в разработке безопасного, надежного и этичного искусственного интеллекта»3. С точки зрения Еврокомиссии, ЗИИ устанавливает первую в истории всеобъемлющую правовую основу, которая устраняет риски, связанные с ИИ, и позволяет ЕС играть ведущую роль в мире, а также содержит уникальное и перспективное определение искусственного интеллекта4.

Однако сразу после одобрения ЗИИ президент Франции Э. Макрон заметил, что это «не лучшая идея регулировать базовые модели больше, чем в других странах», имея в виду французские ИИ-системы «Мистраль ИИ» (Mistral AI) и «Лайтон» (LightOn). Французский министр цифровых технологий Ж.-Н. Барро заявил о необходимости «избежать подавления европейских новаторов чрезмерно жестким регулированием» и продолжить дискуссию. Еврокомиссар по цифровым технологиям Т. Бретон ответил, что «текст утвержден и закрыт для обсуждения»5. Париж, в частности, беспокоит положение ЗИИ об обнародовании подробного реестра данных, используемых для обучения программного обеспечения. Основатель Mistral AI А. Менш пояснил, что «полная прозрачность... будет означать смерть компании», поскольку «95% технологического ноу-хау Мистраля - это структура его баз данных»6.

Некоммерческие организации, разрабатывающие ИИ, расценивают закон как сдерживающий фактор, который ставит их в неравные условия с частными компаниями. Международная ассоциация разработчиков «Крупномасштабная открытая сеть искусственного интеллекта» (Large-scale Artificial Intelligence Open Network, LAION) обратилась к Европарламенту с предложением защитить их от непропорционального влияния ЗИИ, предупреждая, что «сдерживание ИИ с открытым исходным кодом поставит под угрозу цифровую безопасность, экономическую конкурентоспособность и стратегическую независимость Европы»7.

1 Made in China 2025. State Council. 08.05.2015. URL: https://cset.georgetown.edu/wp-content/uploads/t0432_made_in_china_2025_EN.pdf (дата обращения: 16.02.2024).

2 White Paper On Artificial Intelligence.

3 Proposal for a Regulation...

4 Там же.

5 Piquard A. Intelligence artificielle: la France n'a pas renoncé à assouplir l'AI Act. Le Monde. 15.12.2023. URL: https://www.lemonde.fr/economie/article/2023/12/15/intelligence-artificielle-la-france-n-a-pas-renonce-a-assouplir-l-ai-act_6206049_3234.html (дата обращения: 16.01.2024).

6 Там же.

7 A Call to protect open-source AI in Europe. LAION.ai. 28.04.2023. URL: https://laion.ai/notes/letter-to-the-eu-parliament/ (дата обращения: 16.01.2024).

Кроме того, против ЗИИ выступили правозащитные организации. Например, Международная амнистия требует полного запрета систем автоматического распознавания лиц и сожалеет об исключении «вопросов национальной безопасности, обороны и военных целей из сферы действия Закона об искусственном интеллекте»1. По мнению организации, исторический шанс был упущен, а взамен создан «опасный прецедент»2. Европейское академическое сообщество также критикует закон. Например, С. Томмази считает одним из важнейших положений как ЗИИ, так и предшествовавшего ему Закона о цифровых услугах то, что в них риск дискриминации рассматривается в качестве системного [Tommasi, 2023].

Н.Т. Николинакос на основе анализа замечаний крупнейших корпораций и общественных организаций к проекту закона показывает широкий спектр сложных проблем, которые как в силу комплексности и масштаба, так и противоположных интересов заинтересованных сторон представляют предмет постоянного острого обсуждения в поиске временных компромиссов, что осложняется развитием технологий ИИ. Однако институты Евросоюза решили закончить дискуссию, чтобы одобрить законопроект в намеченные сроки. При этом основная проблема заключается в толковании понятия «искусственный интеллект». Представители бизнес-сообщества считают, что под слишком широкое определение подпадают почти все алгоритмы, любые программные продукты, не имеющие признаков ИИ. С другой стороны, представители гражданского общества выступают против слишком узкого перечня запрещенных систем [Nikolinakos, 2023].

Дискуссии о регулировании ИИ идут на фоне развития американских, китайских - «Алибаба» (Alibaba), «Байду» (Baidu), «Хуавэй» (Huawei), Тенсент (Tencent), «Сяоми» (Xiaomi) - и южнокорейских - «Самсунг» (Samsung) - транснациональным компаний в области информационных технологий. Согласно докладу австралийского аналитического центра, Китай лидирует в 37 из 44 важнейших технологий, в частности: суперкомпьютеры, квантовые технологии, робототехника, энергетика, биотехнологии, ИИ, машинное обучение, дроны. США - в остальных семи: проектирование и разработке полупроводников и интегральных схем, высокопроизводительные вычисления, квантовые вычисленияе и т. д. Доклад подготовлен на основе анализа научных публикаций в WoS Core Collection, т. е. не учитывает базы данных Китая [Gaida et al., 2023].

Общие и отличительные черты

В оценках ЗИИ отмечается недостаточное внимание законодателей к занижению использования ИИ и стремлению компаний самим формировать стандарты. Слабо обозначена проблема долгосрочного и малозаметного воздействия ИИ на

1 Proposal for a Regulation.

2 Intelligence artificielle: Pourquoi l'accord de l'Union européenne est une occasion manquée. Amnesty International France. 14.12.2023. URL: https://www.amnesty.fr/actualites/intelligence-artificielle-pourquoi-l-accord-de-l-union-europeenne-est-une-occasion-manquee (дата обращения: 16.01.2024).

общество. Например, фейковый контент, не влияя напрямую на права или здоровье индивида, снижает доверие к научной информации, продвигает товары, услуги и идеологии, которые «могут способствовать существенным и потенциально вредным изменениям на наших рынках, в демократиях и информационных экосистемах» [Clarke, Whittlestone, 2021]. В документах КНР среди рисков назван «неточный контент, который явно не соответствует общепринятым научным знаниям или общепринятому восприятию»1.

Брюссель традиционно критикует Пекин за исключительно декларативное обращение к проблематике прав человека и верховенства закона. Однако С. Сакс считает, что китайское руководство создает наиболее широкоохватывающий режим управления киберпространством и информационно-коммуникативными технологиями в мире2. Исследователи пишут о пробуждении конфиденциальности в Китае [Wang, Yu, 2015]. Реагируя на это, власти формируют нормативную базу, обеспечивающую надежную защиту потребителей. Х. Робертс полагает, что государственный надзор и цензура отражают не только авторитаризм, но и социально-политическую концепцию прав, описываемую как «сильная защита потребителей и слабая защита граждан». В ней информационная конфиденциальность выступает предметом «взаимных обязательств государства и граждан» [Roberts, 2021]. Такой подход происходит из конфуцианства, в этике которого формулируется предпочтение определенному образу жизни [Yao, 1999] и стремление к самосовершенствованию [Rozi, 2020].

Евросоюз, несмотря на то что определяет права человека как универсальные, делает ставку на запретительные меры. Китайский подход оценивается как релятивистский, согласно которому жизнь, стабильность, экономическое развитие имеют приоритет над гражданскими и политическими правами [Oud, Drinhausen, 2021]. Вместе с тем все больше западных исследователей полагают, что руководство КНР укрепляет правовой порядок, судебную власть на основе закрепленного в Конституции собственного перечня прав человека, ключевое отличие которого - дополнение прав обязанностями [Литвак, Помозова, 2021].

С этой проблемой связан запрет в ЗИИ систем социального контроля, или социального скоринга для рейтинга надежности физических лиц, за который Китай подвергается критике. Однако запрещенные практики и защищаемые права схожи в европейских и китайских документах. Теракты в странах Европы (Франции, Германии, Испании, Бельгии) в большинстве случаев осуществляли люди, находившиеся под наблюдением служб безопасности, в т. ч. с применением систем ИИ [Гаджиму-радова, 2021; Грачев, Корнилова, 2020]. Следовательно, и ЕС, и КНР используют искусственный интеллект в одинаковых целях, но в Китае теракты прекратились, а в Европе они продолжаются [Галицкая, 2022]. Другими словами, европейские государства, декларируя приоритет прав человека, собирают личные данные, но не вы-

1 Basic Safety Requirements for Generative Artificial Intelligence Services.

2 Sacks S. China's Emerging Cyber Governance System. Center for Strategic and International Studies (CSIS). URL: https://www.csis.org/programs/strategic-technologies-program/resources/china-cyber-outlook/chinas-emerging-cyber (дата обращения: 16.01.2024).

полняют обязательства перед гражданами и не обеспечивают их безопасность в полной мере. Это порождает страх и недоверие многих европейцев к власти и сопротивление разработке и внедрению новых технологий. Среди различных противников научно-технического прогресса (сторонники медленной жизни, устойчивого развития и альтернативной энергетики, анархо-примитивисты, энвайронментали-сты и др.) наиболее влиятельны именно европейские группы, идеологи и активисты [Уланова, 2020].

Социологи отмечают, что в ЕС изменилось отношение граждан к персональным данным: люди публикуют все больше личной информации в социальных сетях. Родившиеся в начале 1980-х - середине 1990-х гг. более чувствительны к безопасности, чем молодежь, так как были свидетелями роста преступности и терактов в 2000-е гг. Они воспринимают системы наблюдения как необходимость1. Граждане КНР наиболее положительно оценивают внедрение искусственного интеллекта: 78% респондентов (наивысший показатель в мире) считают, что у продуктов и услуг, использующих ИИ, больше преимуществ, чем недостатков. Для сравнения: в США 35% опрошенных согласны с этим утверждением, в Германии - 37%, в Нидерландах - 33%, во Франции - 31%2.

Китайское правительство также собирает личные данные (все компании обязаны оказывать необходимое содействие властям) для обеспечения антитеррористической безопасности и объясняет, как полученная информация будет использована. В марте 2024 г. для публичного обсуждения был опубликован проект Закона КНР об искусственном интеллекте3. Большинство ключевых проблем развития и регулирования ИИ в нем описаны в формулировках, схожих с ЗИИ. Например, присутствуют такие аспекты, как национальная безопасность и общественные интересы.

Многообразие проблем, вызванных новыми технологиями, требует поиска новых подходов к регулированию создания и использования ИИ. Например, разработчики опасаются растущего разнообразия терминов и определений. Программисты по-разному трактуют такие понятия, как объяснимость и прозрачность [Schneeberger et al., 2023], которые активно используют политики. Среди различных подходов можно отметить конструктивную критику ЗИИ сторонниками ордолибера-лизма, которые пытаются сочетать интересы бизнеса с гражданскими интересами. В частности, М. Вёрсдорфер относит к сильным сторонам закона юридически обязательный характер, экстерриториальность и институциональные новации. Вместе с тем он указывает на неэффективность его имплементации вследствие слабости или отсутствия механизмов надзора и контроля, а также недостаточного финансирования

1 Nabat Y. Données personnelles : comment nous avons peu à peu accepté d'en perdre le contrôle. The Conversation. 11.12.2023. URL: https://theconversation.com/donnees-personnelles-comment-nous-avons-peu-a-peu-accepte-den-perdre-le-controle-218290 (дата обращения: 16.01.2024).

2 Global opinions and expectations about Artificial Intelligence. IPSOS. 01.2022. URL: https://www.ipsos.com/sites/default/files/ct/news/documents/2022-01/Global-opinions-and-expectations-about-AI-2022.pdf (дата обращения: 16.01.2024).

3 [Закон Китайской Народной Республики об искусственном интеллекте (проект) 2024]. URL: https://perma.cc/L9E4-5K3V.2024 (дата обращения: 22.05.2024).

и кадрового обеспечения ^6ге<1бгГег, 2023]. Эта концепция не является ведущей, но влияет на осмысление общего процесса экономического и социального развития в Европе, включая взаимодействие интеграционных и дезинтеграционных тенденций [Громыко, 2022].

Заключение

Технологии искусственного интеллекта становятся определяющим фактором в международной конкуренции. Китай и США ясно понимают риски, связанные с глобальным соперничеством в этой области, и пока только разрабатывают законы, регулирующие ИИ. Евросоюз больше сосредоточен на тактических и идеологических вопросах. В результате ЗИИ, с одной стороны, сдерживает развитие технологий, с другой - вызывает недовольство правозащитников.

Использование искусственного интеллекта влечет ряд проблем. Например, системы ИИ, собирая и анализируя данные о поведении человека, не только персонализируют рекламу, но и влияют на всю информацию, которую видит пользователь, на его решения и поведение. В зависимости от ценностей заказчиков, разработчиков и пользователей существуют различные подходы к регулированию. Тревога и недоверие, отраженные в документах Евросоюза, свойственны большой части европейского общества, которая опасается, что власть и бизнес могут использовать ИИ для контроля, манипулирования и получения сверхприбылей. Институты ЕС уверяют в обратном, но фактически оставляют способы обхода законодательства, часто демонстрируют некомпетентность в технических вопросах, приоритет решения бюрократических задач, невнимание к заботам граждан и бизнеса. Пекин заявляет об использовании ИИ-технологий для контроля бизнеса и защиты граждан от незаконных действий и считает государственную и общественную безопасность основой развития и существования общества.

Западные эксперты указывают на прогресс институционализации и имплемен-тации прав человека в Китае. В условиях глобальной конкуренции КНР активно совершенствует этику ИИ. Потенциальное применение искусственного интеллекта в правовой сфере выступает следующим этапом на пути устранения субъективного человеческого фактора из принятия решений в соответствии с законом. Подход к регулированию искусственного интеллекта в ЕС может трансформироваться с учетом китайского опыта в этой сфере, поскольку применение ИИ связано с тем, сможет ли он продемонстрировать эффективность в экономике и безопасности.

СПИСОК ЛИТЕРАТУРЫ

Гаджимурадова Г.И. (2021) Информационные технологии и противодействие различным видам экстремизма в эпоху глобализации. Научный результат. Социология и управление. № 7(2). С. 40-48.

Галицкая Н.В. (2022) Правовые аспекты антитеррористической безопасности: опыт современного Китая. Административное и муниципальное право. № 3. С. 34-46.

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

Грачев С.И., Корнилова К.А. (2020) Обсуждение контртеррористической политики ФРГ в публичных выступлениях глав ключевых министерств (2013-2018 гг.). Вестник Нижегородского университета им. Н. И. Лобачевского. № 4. С. 14-22.

Громыко Ал.А. (ред.) (2022) Европа в кризисном мире. Издательство «Весь Мир», Москва. 376 с. DOI: 10.55604/9785777708953

Литвак Н.В., Помозова Н.Б. (2021) Концептуальные подходы к правам человека в Европейском союзе и КНР. Современная Европа. № 5. С. 56-67. DOI: http://dx.doi.org/10.15211/soveurope520215667

Маркс К., Энгельс Ф. (1955) Манифест Коммунистической партии. Сочинения. Т. 4. Государственное издательство политической литературы, Москва. 638 с.

Уланова А.Е. (2020) Образ противника технологий в рассказе А. Азимова «Раб корректуры»: современная интерпретация. Концепт: философия, религия, культура. Т. 4. № 2(14). С. 135-143. DOI: https://doi.org/10.24833/2541-8831-2020-2-14-135-143

Clarke S., Whittlestone J. (2021) Submission of Feedback to the European Commission's Proposal for a Regulation laying down harmonised rules on artificial intelligence. Centre for the Study of Existential Risk, Cambridge, UK. URL: https://www.cser.ac.uk/resources/feedback-european-regulation/ (дата обращения: 16.01.2024).

Gaida J., Wong-Leung J., Robin St., Cave D. (2023) ASPI's Critical Technology Tracker: The global race for future power. Australian Strategic Policy Institute. 22.09. URL: https://www.aspi.org.au/report/critical-technology-tracker (accessed: 16.01.2024).

Nikolinakos N.T. (2023) The Proposed Artificial Intelligence Act and Subsequent 'Compromise' Proposals: Commission, Council, Parliament. EU Policy and Legal Framework for Artificial Intelligence, Robotics and Related Technologies - The AI Act. Law, Governance and Technology Series. Vol. 53. Springer, Cham, Switzerland. P. 327-741. DOI: https://doi.org/10.1007/978-3-031-27953-9_8

Oud M., Drinhausen K. (ed.) (2021) The Decoding China Dictionary. Raoul Wallenberg Institute of Human Rights, Lund, Sweden. 63 p. URL: https://rwi.lu.se/wp-content/uploads/2021/03/Decoding-China-Publication_FINAL.pdf (дата обращения: 16.01.2024).

Roberts H. (2022) Informational Privacy with Chinese Characteristics. The 2021 Yearbook of the Digital Ethics Lab. Ed. by J. Mökander, M. Ziosi. Springer, Cham, Switzerland. P. 9-23. DOI: https://doi.org/10.1007/978-3-031-09846-8_2

Rozi F. (2020) Confucian Concept of Self-Cultivation and Social Harmony. International Journal of Language & Linguistics. Vol. 7(2). P. 129-136. DOI: 10.30845/ijll.v7n2p15

Schneeberger D., Röttger R., Cabitza F., Campagner A., Plass M., Müller H., Holzinger A. (2023) The Tower of Babel in Explainable Artificial Intelligence (XAI). Machine Learning and Knowledge Extraction. Ed. by A. Holzinger, P. Kieseberg, F. Cabitza, A. Campagner, A.M. Tjoa, E. Weippl. Springer, Cham, Switzerland. P. 65-81. DOI: https://doi.org/10.1007/978-3-031-40837-3_5

Tommasi S. (2023,) Risk-Based Approach in the Digital Services Act and in the Artificial Intelligence Act. The Risk of Discrimination in the Digital Market. Springer, Cham, Switzerland. P. 73-83. DOI: https://doi.org/10.1007/978-3-031-43640-6_5

Wang Z., Yu Q. (2015) Privacy trust crisis of personal data in China in the era of Big Data: The survey and countermeasures. Computer Law & Security Review. No. 31(6). P. 782-792. DOI: https://doi.org/10.1016/j.clsr.2015.08.006

Wörsdörfer M. (2023) The E. U. 's artificial intelligence act: an ordoliberal assessment. AI Ethics. DOI: https://doi.org/10.1007/s43681-023-00337-x

Yao X. (1999) Confucianism and its Modern Values: Confucian moral, educational and spiritual heritages revisited. Journal of Beliefs & Values. No. 20(1). P. 30-40. DOI: https://doi.org/10.1080/1361767990200103

Artificial Intelligence in the Politics of the EU and China

N.V. Litvak

Doctor of Sciences (Sociology) Professor of the Department of Philosophy. A.F. Shishkina, MGIMO, Russian Foreign Ministry. 76, Prospect Vernadskogo Moscow, Russia, 119454 E-mail: [email protected]

N.B. Pomozova

Doctor of Sciences (Sociology) Leading Researcher of the Centre for Comprehensive European and International Studies (CCEIS), Faculty of World Economy and International Affairs, HSE University. 17, M. Ordynka Str., Moscow, Russia, 119017

E-mail: [email protected]

Abstract. The article analyzed different concepts of the regulation of the artificial intelligence in the context of the competition between EU and China. In just the last few years artificial intelligence has evolved from academic research and futuristic discussions into the most dynamically developing practice. The speed and scale of implementation of this technology, and even more so, the prospects, are confusing an increasing number of people - from politicians and businessmen to ordinary citizens and the developers of these AI systems themselves. As a result of a comparative interdisciplinary study of the approaches of the European Union and China to the topic of artificial intelligence, common and distinctive features that are determined by value differences have been identified. The main difference, according to the Europeans themselves, is ethics based on the European understanding of human rights. Modern China, challenging global primacy, is promoting its concept in this area. The examples of problems of ethics, competition, and security show the differences in the regulation of AI implementation processes, as well as the uncertainty that increasingly determines the actions of European politicians. This may contribute to an ideologically determined loss in competition in the field of artificial intelligence. It is possible that, despite solemn statements, Europe will have to use elements of the Chinese pragmatic approach to the problem.

Key words: artificial intelligence, ethics, human rights, European Union, China, values

DOI: 10.31857/S020170832404003X

REFERENCES

Clarke S., Whittlestone J. (2021) Submission of Feedback to the European Commission's Proposal for a Regulation laying down harmonised rules on artificial intelligence, Centre for the Study of Existential Risk, Cambridge, UK. URL: https://www.cser.ac.uk/resources/feedback-european-regulation/ (accessed: 16.01.2024).

Gromyko Al.A. (ed.) (2022) Evropa v krizisnom mire [Europe in a world of crisis], "Ves Mir", Moscow, Russia. DOI: 10.55604/9785777708953 (In Russian).

Gaida J., Wong-Leung J., Robin St., Cave D. (2023) ASPI's Critical Technology Tracker: The global race for future power, Australian Strategic Policy Institute, 22.09. URL: https://www.aspi.org.au/report/critical-technology-tracker (accessed: 16.01.2024).

Gadzhimuradova G. I. (2021). Informacionnye tekhnologii i protivodejstvie razlich-nym vidam ekstremizma v epohu globalizacii. Nauchnyj rezul'tat [Information technologies and countering various types of extremism in the era of globalization. Scientific result], Sociologiya i upravlenie, 7(2), pp. 40-48. (In Russian).

Galickaya N.V. (2022) Pravovye aspekty antiterroristicheskoj bezopasnosti: opyt so-vremennogo Kitaya [Legal aspects of anti-terrorist security: the experience of modern China], Administrativnoe i municipal'noepravo, 3, pp. 34-46. (In Russian).

Grachev S.I., Kornilova K.A. (2020). Obsuzhdenie kontrterroristicheskoj politiki FRG v publichnyh vystupleniyah glav klyuchevyh ministerstv (2013-2018 gg.) [Discussion of Germany's counter-terrorism policy in public speeches of the heads of key ministries (2013-2018)], Vestnik Nizhegorodskogo universiteta im. N. I. Lobachevskogo, 4, pp. 14-22. (In Russian).

Litvak N.V., Pomozova N.B. (2021) Konceptual'nye podhody k pravam cheloveka v Evropejskom soyuze i KNR [Conceptual approaches to human rights in the European Union and China], Sovremennaya Evropa, 5, pp. 56-67. DOI:

http://dx.doi.org/10.15211/soveurope520215667 (In Russian).

Marx K., Engels F. (1955) Manifest Kommunisticheskoj partii [Manifesto of the Communist Party], in Works, 4, Gosudarstvennoe izdatel'stvo politicheskoj literatury, Moscow, Russia. (In Russian).

Nikolinakos N.T. (2023) The Proposed Artificial Intelligence Act and Subsequent 'Com-promise' Proposals: Commission, Council, Parliament, in EU Policy and Legal Framework for Artificial Intelligence, Robotics and Related Technologies - The AI Act. Law, Governance and Technology Series, 53, Springer, Cham, Switzerland, pp. 327-741. DOI: https://doi.org/10.1007/978-3-031-27953-9_8

Oud M., Drinhausen K. (ed.) (2021) The Decoding China Dictionary. Raoul Wallenberg Institute of Human Rights, Lund, Sweden. URL: https://rwi.lu.se/wp-content/uploads/2021/03/Decoding-China-Publication_FINAL.pdf (accessed: 16.01.2024).

Roberts H. (2022) Informational Privacy with Chinese Characteristics, in Mökander J., Ziosi M. (ed.) The 2021 Year-book of the Digital Ethics Lab, Springer, Cham, Switzerland, pp. 9-23. DOI: https://doi.org/10.1007/978-3-031-09846-8_2

Rozi F. (2020) Confucian Concept of Self-Cultivation and Social Harmony, International Journal of Language & Linguistics, 7(2), pp. 129-136. DOI: 10.30845/ijll.v7n2p15

Schneeberger D., Röttger R., Cabitza F., Campagner A., Plass M., Müller H., Holzinger A. (2023) The Tower of Babel in Explainable Artificial Intelligence (XAI), in Holzinger A., Kieseberg P., Cabitza F., Campagner A., Tjoa A.M., Weippl E. (ed.) Machine Learning and Knowledge Extraction, Springer, Cham, Switzerland, pp. 65-81. DOI: https://doi.org/10.1007/978-3-031-40837-3_5

Tommasi S. (2023) Risk-Based Approach in the Digital Services Act and in the Artificial Intelligence Act, in The Risk of Discrimination in the Digital Market, Springer, Cham, Switzerland, pp. 73-83. DOI: https://doi.org/10.1007/978-3-031-43640-6_5

Wang Z., Yu Q. (2015) Privacy trust crisis of personal data in China in the era of Big Da-ta: The survey and countermeasures, Computer Law & Security Review, 31(6), pp. 782-792. DOI: https://doi.org/10.1016Zj.clsr.2015.08.006

Wörsdörfer M. (2023) The E.U.'s artificial intelligence act: an ordoliberal assessment, AI Ethics. DOI: https://doi.org/10.1007/s43681-023-00337-x

Yao X. (1999) Confucianism and its Modern Values: Confucian moral, educational and spiritual heritages revisited, Journal of Beliefs & Values, 20(1), pp. 30-40. DOI: https://doi.org/10.1080/1361767990200103

i Надоели баннеры? Вы всегда можете отключить рекламу.