УДК 342.5+364.12 DOI: 10.55959/MSU2070-1381-108-2025-90-100 Ценностные ориентиры и государственная служба в условиях новых вызовов и угроз
Гриняев Сергей Николаевич
Доктор технических наук, SPIN-код РИНЦ: 4645-8700, ORCID: 0000-0001-6511-9553, [email protected]
Институт Европы РАН, Москва, РФ.
Аннотация
В статье затронуты важные вопросы развития государственной службы в условиях современных вызовов и угроз. Во введении описываются современные тенденции, характеризующие роль и значение ценностных ориентиров для государственной службы в России; дается оценка сформированной нормативно-правовой основы государственной службы. При этом делается предположение, что в настоящее время происходит трансформация ценностных ориентиров государственных служащих в России, и утверждается, что подобные процессы инициированы главным образом специальной военной операцией и глобальными изменениями современного общества, связанными с переходом к новому технологическому укладу. Далее на основе анализа различных материалов проверяется высказанное предположение: специальная военная операция ярко высветила ряд значимых изменений, коснувшихся ценностных ориентиров российского общества. Кроме того, описываются формируемые сегодня будущие вызовы и угрозы, связанные с использованием при решении задач государственной службы систем на основе искусственного интеллекта. Описываются множественные проблемы внедрения систем на основе искусственного интеллекта в государственное управление (опыт Великобритании). Важным является то, что приведены оценки рисков, связанных с внедрением систем искусственного интеллекта в государственное управление. Среди нового класса задач, на которые стоит обратить внимание, — задачи обеспечения безопасности систем на основе искусственного интеллекта. Наиболее значимой является задача формирования ценностных ориентиров, которые вносятся в наборы обучающих данных. В результате делается вывод, что ценностные ориентиры в государственной службе сегодня приобретают особое значение в силу происходящих трансформаций и требуют особого внимания к их формулированию и интерпретации.
Ключевые слова
Государственная служба, угрозы, коррупция, специальная военная операция, искусственный интеллект. Для цитирования
Гриняев С.Н. Ценностные ориентиры и государственная служба в условиях новых вызовов и угроз // Государственное управление. Электронный вестник. 2025. № 108. С. 90-100. DOI: 10.55959/MSU2070-1381-108-2025-90-100
Value Orientations and Public Service in the Context of New Challenges and Threats
Sergey N. Grinyaev
DSc (Technical sciences), ORCID: 0000-0001-6511-9553, [email protected]
Institute of Europe, Russian Academy of Sciences, Moscow, Russian Federation.
Abstract
The article touches upon important issues of civil service development in the context of modern challenges and threats. In the introduction, current trends characterizing the role and importance of value orientations for public service in Russia are described. The assessment of the formed regulatory framework of the civil service is given. It is suggested that there is currently a transformation of the civil servants' value orientations in Russia. It is argued that such processes are initiated mainly by a special military operation and global changes in modern society associated with the transition to a new technological order. The main part of the article using different sources verifies this assumption. The special military operation has highlighted a number of significant changes affecting the values of Russian society. This part also outlines the future challenges and threats that are being formed today, related to the use of artificial intelligence-based systems in solving public service tasks. The article describes the multiple problems of implementing artificial intelligence-based systems in public administration based on the experience of Great Britain. The paper provides an assessment of the risks associated with the introduction of artificial intelligence systems in public administration. Among the new class of tasks that are highlighted are the tasks of ensuring the security of systems based on artificial intelligence. The most significant task is the formation of value orientations, which are included in the training data sets. As a result, it is concluded that value orientations in the civil service are becoming particularly important today due to the ongoing transformations and require special attention to their formulation and interpretation.
Keywords
Public service, threats, corruption, special military operation, artificial intelligence. For citation
Grinyaev S.N. (2025) Value Orientations and Public Service in the Context of New Challenges and Threats. Gosudarstvennoye upravleniye. Elektronnyy vestnik. No. 108. P. 90-100. DOI: 10.55959/MSU2070-1381-108-2025-90-100
Дата поступления/Received: 23.12.2024
Введение
Тема роли и места ценностных ориентиров в государственной гражданской службе достаточно хорошо изучена в трудах таких исследователей, как В.А. Никонов [Никонов и др. 2021; Никонов 2023], Е.Д. Андриянов [Андриянова 2021], А.П. Солдатов, С.Н. Братановский [Солдатов, Братановский 2021], К.А. Демичев [Демичев 2021] и др. Вместе с тем последние годы характеризуются высоким темпом изменений, которые связаны с глубочайшими трансформациями самой природы современного общества [Глазьев 2023]. Сегодняшний мир входит в полосу смены технологического уклада, что сопровождается целым рядом катаклизмов. Для Российской Федерации исторический процесс смены технологического уклада совпал с проведением специальной военной операции — наиболее интенсивного вооруженного конфликта со времен Великой Отечественной войны. Синергия столь значимых явлений не могла не привести к ряду последствий, затронувших, в частности, ценностные ориентиры российского общества и, как следствие, государственных служащих, которые являются значимой частью российского общества.
Согласно принятым правовым актам, государственная гражданская служба Российской Федерации представляет собой профессиональную деятельность, направленную на обеспечение выполнения полномочий федеральных государственных органов, государственных органов субъектов Российской Федерации, а также лиц, занимающих государственные должности РФ и субъектов РФ1. Суть ее заключается в обеспечении выполнения функций государства. Ключевыми аспектами государственной гражданской службы являются ее правовая основа — государственная служба регулируется федеральными законами и законами субъектов РФ. Основополагающий документ — Федеральный закон «О государственной гражданской службе Российской Федерации»2. Согласно принятым подходам, государственные служащие делятся на федеральных и региональных. Классификация проводится по категориям и группам должностей, каждая из которых имеет свой уровень ответственности и задач3. Основными принципами госслужбы являются:
— меритократия — включает в себя принципы профессионализма, компетентности и равенства возможностей при поступлении на службу;
— прозрачность — открытость процедур принятия на работу и продвижения по службе;
— этика — соблюдение норм служебной этики, включая недопущение коррупции.
Государственные служащие обязаны соблюдать законы, эффективно исполнять свои обязанности, уважать права и свободы граждан. Взамен им предоставляются определенные социальные гарантии и привилегии, такие как отпуск, медицинское обслуживание и пенсионное обеспечение4.
Существующая сегодня система аттестации5 позволяет оценивать компетентность служащих. Карьерный рост зависит от результатов аттестации, профессиональных достижений и опыта.
1 Федеральный закон от 27.07.2004 № 79-ФЗ (ред. от 08.08.2024) «О государственной гражданской службе Российской Федерации». Статья 3. Государственная гражданская служба Российской Федерации // КонсультантПлюс [Электронный ресурс]. URL: https://www.consultant.ru/document/cons doc LAW 48601/bb6b882db94d272a70c568cf7cee9018c6d42515/ (дата обращения: 10.12.2024).
2 Федеральный закон от 27.07.2004 № 79-ФЗ (ред. от 08.08.2024) «О государственной гражданской службе Российской Федерации» // КонсультантПлюс [Электронный ресурс]. URL: https://www.consultant.ru/document/cons doc LAW 48601/ (дата обращения: 10.12.2024).
3 Федеральный закон от 27.07.2004 № 79-ФЗ (ред. от 08.08.2024) «О государственной гражданской службе Российской Федерации». Статья 9. Классификация должностей гражданской службы // КонсультантПлюс [Электронный ресурс]. URL: https://www.consultant.ru/document/cons doc LAW 48601/13935f8c409f17f399cf2cddcf5da0638c9e6fe4/ (дата обращения: 10.12.2024).
4 Федеральный закон от 27.07.2004 № 79-ФЗ (ред. от 08.08.2024) «О государственной гражданской службе Российской Федерации». Статья 14. Основные права гражданского служащего // КонсультантПлюс [Электронный ресурс]. URL: https://www.consultant.ru/document/cons doc LAW 48601/48e053c5f00a333f8f249d9cf26abd9f26ecc888/ (дата обращения: 10.12.2024).
5 Федеральный закон от 27.07.2004 № 79-ФЗ (ред. от 08.08.2024) «О государственной гражданской службе Российской Федерации». Статья 48. Аттестация гражданских служащих // КонсультантПлюс [Электронный ресурс]. URL: https://www.consultant.ru/document/cons doc LAW 48601/cc116becd53c3e805c054112050e9cf869d23187/ (дата обращения: 10.12.2024).
Эти аспекты формируют суть государственной гражданской службы в России, направленную на эффективное и качественное выполнение функций государства для благополучия граждан.
Актуальные проблемы ценностных ориентиров в государственной службе
Безусловно, опираясь на вышеизложенное, можно с уверенностью сказать, что созданная сегодня в России нормативно-правовая система обеспечения государственной службы формирует достаточно привлекательный образ государственного служащего. Но так ли это в жизни? Кто сегодня реальный человек, современный чиновник в России? Как оценить, что тот или иной человек, занимающий должность государственного служащего, отвечает требованиям нормативно-правовых актов?
Именно в этой части крайне важно иметь полное понимание того, что же собой представляет формализованный образ идеального чиновника. Но такого образа сегодня нет. Он не сформирован. Есть отдельные методики оценки эффективности чиновника как руководителя или исполнителя, но нет общей картины его облика.
И здесь одним из критериев оценки могли бы стать как раз ценностные оценки деятельности чиновника. Следует помнить, что любая деятельность целенаправлена. Каждый человек реализует свои интересы через деятельность. При этом важно понимать, что именно средства достижения цели во многом определяют нравственный облик чиновника, его готовность к социальным, а подчас и к антисоциальным действиям [Берзин 2012].
Ценностные ориентиры в широком смысле — это выбор человеком определенных материальных и духовных ценностей, моральных и социальных установок, определяющих его образ жизни, формирующих отношение к окружающему миру [Любцова 2020].
Второй, не менее значимый вопрос состоит в том, готовы ли мы в эпоху активного развития искусственного интеллекта к тому, что доминирующие сегодня в нашем обществе ценности будут вложены и в алгоритмы, лежащие в основе этих уникальных информационных систем.
Современный контекст безопасности и ценностные ориентиры государственной
службы
Сегодняшний мир безвозвратно изменился. Угрозы и вызовы современной цивилизации исходят главным образом от нее самой, от прогресса ее развития. Изменился мир не только потому, что в Европе идет вооруженный конфликт, изменился он и в силу целой массы иных причин, главной из которых является смена ценностных ориентиров современной цивилизации, вызванная стремительным переходом к новому промышленному укладу.
Важность выбора ценностных ориентиров и их значение для оценки чиновника как элемента государственной машины хорошо прослеживаются в современной Европе. Сегодня мы все наблюдаем проблему в целом ряде европейских государств, когда миграционный «шторм» захлестывает страны. Но равнение на ценностные ориентиры толерантности, вложенные в головы европейским чиновникам десятилетия назад, не позволяет переосмыслить происходящее и увидеть истинную опасность протекающих процессов для своих стран.
То же можно сказать и о поддержке сегодня европейскими странами Киева. Утрата ценностных ориентиров, заложенных по итогам Второй мировой войны, не позволяет нынешнему поколению европейской элиты адекватно оценивать происходящее.
Специальная военная операция показала, сколь противоречив и двуличен современный западный мир. В своей работе С.А. Модестов [Модестов 2022] емко и доказательно представил обзор международной и национальной нормативной правовой базы, устанавливающей ответственность за преступления против мира и безопасности человечества, а также против общественной
безопасности со стороны Киева и его западных партнеров. Автор дает всеобъемлющую оценку преступной деятельности военно-политического руководства, вооруженных сил и иных вооруженных формирований Украины с участием иностранных наемников, результатом которой стал острейший кризис в Восточной Европе. Безусловен и справедлив вывод автора о том, что на США и других странах НАТО лежит ответственность за дестабилизацию обстановки в регионе и поощрение международного терроризма, что и вынудило Россию начать специальную военную операцию на Украине с целью ее демилитаризации и денацификации.
Специальная военная операция во многом изменила отношение общества в России к происходящему, причем как вне, так и внутри страны. Особенно это относится к нетерпимому отношению к проявлениям коррупции в чиновничьей среде. Причем не просто чиновников, а тех, кто связан с обеспечением обороны и безопасности страны.
Чиновники, допустившие факты коррупции в части исполнения государственного оборонного заказа и, что еще страшнее, допустившие нецелевое использование средств государственного оборонного заказа в личных целях, виновны не только в этом — они виновны и в тех потерях, которые понесли российские Вооруженные Силы в ходе проводимой специальной военной операции.
Думаю, что выскажу мнение многих: коррупционные преступления во время военных действий или коррупционные преступления, последствия которых повлекли срыв выполнения задач по обороне страны, привели к брешам в обороне, к страданиям и гибели мирного населения, должны наказываться намного серьезнее тех, что совершаются в мирное время.
Помимо коррупционных преступлений, следует обратить внимание на тот факт, что с началом специальной военной операции резко выросло число уголовных дел, связанных с умышленной порчей имущества при совершении диверсионно-террористических актов6. Главным образом молодежь за мизерные суммы оказалась готова к совершению диверсий против объектов на территории собственной страны7. Что явилось причиной подобного поведения молодежи еще предстоит уточнить, но уже ясно, что необходимо совершенствование молодежной политики именно в вопросах детализации и уточнения форматов и способов донесения до молодежи национальных ценностных ориентиров. Особой оценки требуют подобные случаи, фигурантами в которых являются государственные служащие либо работники государственных корпораций.
Новые вызовы и угрозы, их влияние на значимость ценностных ориентиров в условиях внедрения систем искусственного интеллекта
В современном мире мы сталкиваемся с еще одной крайне важной проблемой: сегодня системы искусственного интеллекта все шире используются в различных секторах национальной экономики. Значимое место начинают они играть и в государственном управлении8. Практика показывает, что в целом ряде случаев использование таких систем не отвечает текущим представлениям и ценностным ориентирам в обществе.
Встает закономерный вопрос: а какие ценностные ориентиры заложены создателем этих моделей? Приближаются ли они к образу идеального чиновника? Практика показывает, что нет. Во многих случаях действия систем искусственного интеллекта оказываются предвзятыми.
6 Мошенники с Украины поджигают Россию // Украина.ру [Электронный ресурс]. URL: https://ukraina. ru/20241224/1059919227.html (дата обращения: 10.12.2024).
7 Россиянин поджег релейный шкаф за девять тысяч рублей и получил срок // Lenta [Электронный ресурс]. URL: https://lenta.ru/news/2024/08/30/rossiyanin-podzheg-releynyy-shkaf-za-devyat-tysyach-rubley-i-poluchil-srok/ (дата обращения: 10.12.2024).
8 20% крупных российских компаний уже используют генеративный искусственный интеллект // Яндекс [Электронный ресурс]. URL: https://yandex.ru/company/news/01-18-12-2023 (дата обращения: 10.12.2024).
Интересно в этом контексте сослаться на опыт применения систем искусственного интеллекта в государственном секторе Великобритании, где сложилась достаточно высокорисковая ситуация, связанная с бесконтрольным применением систем искусственного интеллекта для поддержки принятия решений по целому ряду важных задач, относящихся к компетенции государства.
Данные свидетельствуют о бессистемном и часто неконтролируемом использовании передовых технологий искусственного интеллекта по всему Уайтхоллу. Как показывает анализ, государственные служащие по меньшей мере в восьми департаментах правительства и значительное количество полицейских по всей стране используют искусственный интеллект в ряде областей, когда речь идет о помощи им в принятии решений по вопросам социального обеспечения, иммиграции и уголовного правосудия9.
Проблема состоит в том, что некоторые из используемых инструментов потенциально могут привести к дискриминационным результатам10. В частности, эксперты указывают на ряд случаев, получивших огласку: алгоритм, используемый Министерством труда и пенсий Великобритании, ошибочно привел к тому, что десятки людей были лишены заслуженных льгот; инструментарий распознавания лиц, используемый полицией Лондона, допускает больше ошибок при распознавании лиц темнокожих, чем белых, при определенных настройках11.
Среди выявленных проблем особое опасение вызывает предвзятая работа специальных алгоритмов. Министерство внутренних дел Великобритании заявило, что оно использовало искусственный интеллект для контроля паспортов в аэропортах, а также в качестве инструмента, который выявляет потенциальные фиктивные браки для дальнейшего расследования12. Однако этот инструмент непропорционально выделяет в качестве потенциальных нарушителей людей из Албании, Греции, Румынии и Болгарии. У Министерства юстиции Великобритании есть интегрированная служба анализа рисков, которая использует алгоритм, помогающий выявлять мошенничество и ошибки среди претендентов на получение льгот13. Применение этого алгоритма на данных, которые были переданы от Министерства внутренних дел Великобритании, привело к тому, что в последние годы сотням болгар внезапно приостановили выплату льгот после того, как их несправедливо обвинили в потенциально мошеннических действиях на основании решения системы искусственного интеллекта14.
Эксперты указывают15, что большинство подобных проблем связано с бесконтрольным процессом обучения нейронных сетей, используемых в специальных приложениях. Искусственный интеллект обучается на большом наборе данных, а затем анализирует входные данные способами, которые даже те, кто разработал инструменты, иногда не до конца понимают. Проблема состоит в том, что подготовленная выборка данных, использовавшаяся для настройки алгоритмов и их обучения, уже содержала недостатки, с которыми в дальнейшем столкнулись чиновники при использовании уже настроенных алгоритмов [Akter et al. 2022].
9 UK officials use AI to decide on issues from benefits to marriage licences: Technology // The Guardian [Электронный ресурс]. URL: https://www.theguardian.com/technology/2023/oct/23/uk-officials-use-ai-to-decide-on-issues-from-benefits-to-marriage-licences (дата обращения: 10.12.2024).
10 UK risks scandal over 'bias' in AI tools in use across public sector: Technology // The Guardian [Электронный ресурс]. URL: https://www.theguardian.com/technology/2023/oct/23/uk-risks-scandal-over-bias-in-ai-tools-in-use-across-public-sector (дата обращения: 10.12.2024).
11 Там же.
12 Там же.
13 DWP algorithm wrongly flags 200,000 people for possible fraud and error: Society // The Guardian [Электронный ресурс]. URL: https://www.theguardian.com/society/article/2024/jun/23/dwp-algorithm-wrongly-flags-200000-people-possible-fraud-error (дата обращения: 10.12.2024).
14 Там же.
15 Там же
Сегодня процессы обучения ведомственных нейронных сетей, используемых для решения важных государственных задач, выполняются, как правило, сторонними фирмами. Вопросы контроля обучения, отсутствия скрытых ошибок (включая и тенденциозные решения) до настоящего времени не решены системами безопасности [Madan et al. 2023]. На этом фоне руководство Великобритании приняло решение упразднить независимый правительственный консультативный совет, который привлекал органы государственного сектора к ответственности за ненадлежащее использование ими систем искусственного интеллекта для решения стоящих задач16.
С целью нормализации возникшей ситуации и снижения потенциальных проблем в Британии разработан и запущен «Стандарт отчетности по алгоритмической прозрачности», который поощряет департаменты правительства и полицейские власти добровольно раскрывать, где они используют системы искусственного интеллекта для принятия решений, которые могут оказать существенное влияние на широкую общественность17.
Риски, связанные с развитием искусственного интеллекта, — подход западных экспертов
Сегодня хорошо известны оценки западных экспертов, которые указывают на то, что развитие систем и методов искусственного интеллекта в ближайшие годы создаст принципиально новый ландшафт угроз безопасности личности, общества и государства, потребовав коренного реформирования существующих систем безопасности [Francisco, Linnér 2023].
В период подготовки к международному саммиту по безопасности искусственного интеллекта, который проходил в начале ноября 2023 года в Великобритании, был выполнен ряд исследований. Их результаты были представлены участникам саммита. В частности, в документах был введен новый термин — «передовой искусственный интеллект»18. Он означает набор высокоэффективных моделей искусственного интеллекта общего назначения, которые могут выполнять широкий спектр задач из повседневной жизни людей и соответствовать возможностям, имеющимся в самых передовых моделях на сегодняшний день, или превосходить их. По состоянию на октябрь 2023 года это в первую очередь относилось к базовым моделям, состоящим из сверхбольших нейронных сетей, использующих архитектуру Transformer19.
Сегодня модели передового искусственного интеллекта становятся все более приспособленными к выполнению ряда задач из повседневной жизни людей. В краткосрочной перспективе решаемых ими задач станет еще больше. Однако создавать их будут те немногие компании, которые имеют доступ к необходимым ресурсам (прежде всего это вычислительные кластеры и алгоритмические ноу-хау). Модели с открытым исходным кодом будут совершенствоваться в разных странах и в глубине «свободного» сообщества программистов, что, как полагают эксперты, создаст серьезные проблемы регулирования в области искусственного интеллекта20.
Очевидно, что риски, связанные с будущими системами искусственного интеллекта, будут включать риски, которые очевидны уже сегодня, но с потенциалом и масштабом большего воздействия. К ним относятся: усиление массового манипулирования и дезинформации; создание принципиально новых возможностей для кибератак или мошенничества; снижение барьеров для доступа к вредоносной информации и принятия предвзятых решений. Начало работы
16 British government quietly sacks entire board of independent AI advisers // The Record [Электронный ресурс]. URL: https://therecord.media/uk-disbands-ai-advisory-board-cdei-rishi-sunak (дата обращения: 10.12.2024).
17 UK government publishes pioneering standard for algorithmic transparency // Gov.uk [Электронный ресурс]. URL: https://www.gov.uk/government/news/uk-government-publishes-pioneering-standard-for-algorithmic-transparency (дата обращения: 10.12.2024).
18 Frontier AI: capabilities and risks — discussion paper // Gov.uk [Электронный ресурс]. URL: https://www.gov.uk/government/ publications/frontier-ai-capabilities-and-risks-discussion-paper (дата обращения: 10.12.2024).
19 Там же.
20 Там же.
над возможными путями регулирования искусственного интеллекта уже сегодня может несколько снизить уровень угрозы в будущем, но не исключит ее полностью.
Даже самые совершенные модели сегодня имеют ограничения и приводят к ошибкам. Продолжаются споры о том, насколько надежны и масштабируемы некоторые очевидные возможности. Для создания действительно автономных искусственных агентов, способных выполнять задачи без надзора человека, потребуются повышенная точность, способность к рассуждению, планированию, памяти и самокоррекции.
По мере того, как передовой искусственный интеллект становится все более продвинутым, в научной среде активизировались споры о том, может ли быть реализован сильный искусственный интеллект (алгоритм, превосходящий способности человека) (Artificial General Intelligence, AGI) и когда именно [Щербаков 2022]. Британские специалисты считают, что риски и возможности, создаваемые данной моделью, напрямую связаны с ее возможностями и тем, как она используется, а не с широтой задач, в которых она может соответствовать производительности человека. Важно, что модели передового искусственного интеллекта (доступные уже в ближайшем будущем) могут быть разрушительными, полезными, мощными или рискованными, не являясь при этом моделями сильного искусственного интеллекта (создание которого прогнозируется в горизонте до десяти лет).
Следует понимать, что риск и связанные возможности будут определяться неопределенными факторами, включая геополитику, доступность ресурсов, частную собственность на алгоритмы, меры безопасности и общественное мнение.
Учитывая значительную неопределенность, сегодня недостаточно доказательств, чтобы исключить сценарий, согласно которому будущий сильный искусственный интеллект в случае неправильного использования или неадекватного контроля может представлять угрозу существованию человечества. Однако многие считают это маловероятным [Там же]. Потребуются системы, которые опережали бы меры по смягчению последствий, получали контроль над критическими системами и могли бы избежать отключения.
Некоторые тезисы международно-правового наполнения «рамок ответственного поведения» при использовании систем искусственного интеллекта
Сегодня во многих странах мира обсуждается необходимость и целесообразность инициирования процессов международно-правового регулирования в области разработок, связанных с внедрением систем и методов искусственного интеллекта. Необходимость задействования международно-правовых норм определяется оценками экспертов, согласно которым Пекин в ближайшие годы сможет опередить США в части эффективного использования систем и методов искусственного интеллекта для решения задач, связанных с обеспечением национальной обороны и безопасности21. Кроме того, в связи с относительной доступностью таких методов уже сформировался целый пул государств, активно разрабатывающих и внедряющих подобные методы. Причем национальное законодательство сильно различается: от строгого запрета определенных видов исследований до полной свободы, что дает возможность в отсутствие международного регулирования организовывать оффшорные исследования в странах с благоприятным нормативно-правовым климатом, тем самым преодолевая национальные запреты и ограничения.
Обсуждая варианты контроля, обычно исходят из принципиально иной природы технологий на основе систем и методов искусственного интеллекта, отличающей их от традиционных технологий создания систем и средств вооружения: большинство из них являются технологиями двойного назначения и могут одинаково эффективно использоваться как в военных, так и в гражданских
21 China will continue to advance its military AI // Oxford Analytica [Электронный ресурс]. URL: https://www.oxan.com/insights/ china-will-continue-to-advance-its-military-ai/ (дата обращения: 10.12.2024).
целях. Это делает вопрос контроля крайне сложным: как и каким образом запретить или поставить под контроль то, что может реально или потенциально нанести ущерб безопасности и оставить при этом доступным те работы и внедрения, результаты которых соответствуют интересам государства.
Среди юридических и административных новаций, которые рассматриваются сегодня на Западе как требующие международного регулирования, выделяются следующие.
Внедрение в международную практику алгоритмической подотчетности. Алгоритмическая подотчетность касается того, где следует распределять ответственность за последствия реальных действий, которые были предприняты с учетом алгоритмов, использованных для принятия решения. Алгоритмическая подотчетность возлагает ответственность за вред, который может нанести алгоритм, на операторов (то есть на сторону, ответственную за развертывание алгоритма), а не на разработчиков. Закрепление этой нормы позволяет переложить ответственность с разработчика системы на ее потребителя.
Запрет летального автономного оружия. Эта тема сегодня достаточно широко обсуждается в ряде международных организаций. Главное опасение от внедрения таких систем состоит в том, что они потенциально могут привести к резкой эскалации обстановки вплоть до вооруженного конфликта быстрее, чем когда-либо прежде. На сегодняшний день в этом направлении есть общественная инициатива (возглавляемая Илоном Маском) более сотни американских исследовательских центров и корпораций, производящих системы на основе методов искусственного интеллекта, которые еще в 2017 году подписали письмо в Организацию Объединенных Наций (ООН), в котором содержится настоятельный призыв запретить летальное автономное оружие22. Идея была поддержана в 2018 году Генеральным секретарем ООН. Также в 2018 году члены Европейского парламента приняли резолюцию, в которой обратились с призывом к государствам-членам начать международные переговоры по юридически обязательному документу, запрещающему летальные автономные системы вооружения23.
Однако этой инициативе активно противостоит военно-промышленный комплекс (ВПК) США. Представители ВПК утверждают, что именно военные разработки всегда лежали в основе технологических прорывов, которые достигали США. Это касается и летальных систем вооружения, которые сегодня находятся на гребне эволюции систем и средств поражения.
Запрет государственным структурам на применение алгоритмов распознавания лиц. В ряде экспертных групп отмечается, что использование методов искусственного интеллекта к системам наблюдения и распознавания лиц может привести к росту социальной напряженности, а хакеры получают новый ресурс для шантажа — базы биометрической информации [Утеген, Рахметов 2023]. Целый ряд американских правозащитных организаций считает, что необходим запрет на использование алгоритмов на основе искусственного интеллекта для решения задачи распознавания. Так, Американский союз защиты гражданских свобод заявил, что должен быть введен мораторий на все виды использования распознавания лиц правоохранительными органами24. Кроме того, Алгоритмическая лига справедливости и Центр конфиденциальности и технологий Юридического центра Джорджтаунского университета сформировали инициативу, в которой предлагается не продавать технологию распознавания лиц правоохранительным органам недружественных стран25.
22 Elon Musk leads 116 experts calling for outright ban of killer robots // The Guardian [Электронный ресурс]. URL: https://www.theguardian.com/technology/2017/aug/20/elon-musk-killer-robots-experts-outright-ban-lethal-autonomous-weapons-war (дата обращения: 10.12.2024).
23 European Parliament resolution of 12 September 2018 on autonomous weapon systems // European Parliament [Электронный ресурс]. URL: https://www.europarl.europa.eu/doceo/document/TA-8-2018-0341 EN.html (дата обращения: 10.12.2024).
24 Hearing On "Facial Recognition Technology: Examining Its Uses by Law Enforcement" // Civil Rights [Электронный ресурс]. URL: https://civilrights.org/resource/statement-of-bertram-lee-counsel-for-media-and-technology-hearing-on-facial-recognition-technology-examining-its-uses-by-law-enforcement/ (дата обращения: 10.12.2024).
25 Almost everyone involved in facial recognition tech sees problems with it // Los Angeles Times [Электронный ресурс]. URL: https://www.latimes.com/business/technology/la-fi-tn-facial-recognition-20181212-story.html (дата обращения: 10.12.2024).
Международный контроль за безопасностью рекомендательных алгоритмов. Исходя из опасений, что системы искусственного интеллекта могут нести угрозу, ряд экспертов выдвинул требование, согласно которому особые классы алгоритмов, способные оказывать влияние на принятие решений человеком, до момента своего внедрения должны проходить процедуру государственной регистрации и одобрения.
Алгоритмическая объяснимость. Учитывая особенности реализации, можно утверждать, что результаты, полученные с помощью методов искусственного интеллекта, сложно верифицируемы. В этой связи высказываются предложения о необходимости внесения законодательных норм контроля со стороны человека над результатами, полученными с помощью средств и методов искусственного интеллекта. Страны Евросоюза также склонны к введению нормативных ограничений, в том числе и для оценки решений в области государственного управления с применением методов искусственного интеллекта. Кроме того, Общий регламент по защите данных ЕС, который регулирует, как организации используют или обрабатывают данные любого лица, проживающего в ЕС, предоставляет гражданам ЕС право на значимую информацию о логике, задействованной в алгоритмическом решении, которое имеет юридические или аналогичные существенные последствия26.
Проблемы, с которыми уже сталкивается британское правительство, являются типовыми и требуют серьезного внимания в случае тиражирования сходных решений на систему государственного управления в Российской Федерации [Кондратьева и др. 2022; Демидов, Лукашов 2021].
Одновременно с этими вопросами мы можем задать себе и другие: а кто и в каких учебных заведениях сегодня готовит специалистов по обучению систем искусственного интеллекта? И не инженеров-программистов, а именно специалистов гуманитарного профиля, способных сформировать и реализовать на практике обучения нейронных сетей именно те ценностные ориентиры, о которых мы сегодня говорим применительно к государственному управлению в Российской Федерации. Так, Альянс в сфере искусственного интеллекта разработал Кодекс этики искусственного интеллекта27.
Другими словами, в современной обстановке, которая характеризуется наличием серьезных вызовов, необходимо продолжать работу по совершенствованию гуманитарного образования, его вовлечению в процессы актуализации жизнедеятельности современного российского общества уже с учетом проблем, с которыми столкнулись специалисты в других странах мира [Ng et al. 2021].
Заключение
Очевидно, что изменения, которые затронули все сферы жизнедеятельности современного общества, кардинально повлияют и на сферу государственной службы.
Очевидно также, что безопасность искусственного интеллекта — это социально-техническая проблема, которую невозможно решить одними техническими мерами. Промышленность, научные круги, гражданское общество, правительства и общественность — все должны быть вовлечены в решение этой проблемы. Универсально согласованных показателей для измерения особо опасных или полезных характеристик пока не существует, однако они были бы полезны.
Во многом ценностные ориентиры могут быть той мерой, которая позволит оценивать не только суть деятельности чиновничьего аппарата, но и во многом подготовиться к широкому внедрению в системы государственного управления новых решений на основе искусственного интеллекта.
26 Legal framework of EU data protection // European Commission [Электронный ресурс]. URL: https://commission.europa.eu/ law/law-topic/data-protection/legal-framework-eu-data-protection en (дата обращения: 10.12.2024).
27 Кодекс этики в сфере ИИ // Альянс в сфере искусственного интеллекта [Электронный ресурс]. URL: https://ethics.a-ai. ru/ (дата обращения: 10.12.2024).
Список литературы:
Андриянова Е.Д. Государственная служба в Российской Федерации: понятие, принципы и виды // Молодой ученый. 2021. № 45(387). С. 26-29.
Берзин Б.Ю. Ценностные ориентации государственных служащих в системе регуляции поведения // Социум и власть. 2012. № 2(34). С. 85-88.
Глазьев С.Ю. Перспективы развития России на длинной волне роста нового технологического уклада // Экономическое возрождение России. 2023. № 2(76). С. 27-32. DOI: 10.37930/1990-9780-2023-2(76)-27-32
Демидов А.Ю., Лукашов А.И. Отдельные подходы к цифровой трансформации государственного управления // Государственная служба. 2021. Т. 23. № 1(129). С. 28-34. DOI: 10.22394/2070-8378-2021-23-1-28-34
Демичев К.А. Государственная служба в России как хронодискретный институт: к постановке проблемы // Вестник Нижегородского института управления. 2021. № 1(59). С. 6-11.
Кондратьева А.А., Кудинова В.Д., Перова М.В. Цифровизация государственной службы // Международный студенческий научный вестник. 2022. № 1. URL: https://elibrary.ru/download/ elibrary 48447907 88451669.pdf
Любцова А.В. Ценностные ориентиры современной молодежи в контексте формирования просоциального поведения // Российский психологический журнал. 2020. Т. 17. № 4. С. 65-79. DOI: 10.21702/rpj.2020.4.5
Модестов С.А. Политико-правовые аспекты специальной военной операции на Украине как стратегической контртеррористической операции // Вестник Академии военных наук. 2022. № 2(79). С. 53-59.
Никонов В.А. Специальная военная операция и новый миропорядок // Государственное управление. Электронный вестник. 2023. № 99. С. 7-34. DOI: 10.24412/2070-1381-2023-99-7-34
Никонов В.А., Воронов А.С., Сажина В.А., Володенков С.В., Рыбакова М.В. Цифровой суверенитет современного государства: содержание и структурные компоненты (по материалам экспертного исследования) // Вестник Томского государственного университета. Философия. Социология. Политология. 2021. № 60. С. 206-216. DOI: 10.17223/1998863X/60/18
Солдатов А.П., Братановский С.Н. Государственная служба: историко-правовое исследование // Труды Академии управления МВД России. 2020. № 3(55). С. 129-139.
Утеген Д., Рахметов Б.Ж. Технология распознавания лиц и обеспечение безопасности биометрических данных: компаративный анализ моделей правового регулирования // Journal of Digital Technologies and Law. 2023. Т. 1. № 3. С. 825-844. DOI: 10.21202/jdtl.2023.36
Щербаков М.Г. О рисках и угрозах создания «сильного» искусственного интеллекта: постановка проблемы // Цифровые технологии и право: Сборник научных трудов I Международной научно-практической конференции. В 6-ти томах. Казань: Издательство «Познание», 2022. Т. 5. С. 406-413.
Akter Sh., Dwivedi Y.K., Sajib Sh., Biswas K., Bandara R.J., Michael K. Algorithmic Bias in Machine Learning-Based Marketing Models // Journal of Business Research. 2022. Vol. 144. P. 201-216. DOI: 10.1016/j.jbusres.2022.01.083
Francisco M., Linner B.-O. AI and the Governance of Sustainable Development. An Idea Analysis of the European Union, the United Nations, and the World Economic Forum // Environmental Science & Policy 2023. Vol. 150. DOI: 10.1016/j.envsci.2023.103590
Madan R., Ashok M. AI Adoption and Diffusion in Public Administration: A Systematic Literature Review and Future Research Agenda // Government Information Quarterly. 2023. Vol. 40. Is. 1. DOI: 10.1016/j.giq.2022.101774
Ng D.T.K., Leung J.K.L., Chu S.K.W., Qiao M.Sh. Conceptualizing AI Literacy: An Exploratory Review // Computers and Education: Artificial Intelligence. 2021. Vol. 2. DOI: 10.1016/j.caeai.2021.100041
References:
Akter Sh., Dwivedi Y.K., Sajib Sh., Biswas K., Bandara R.J., Michael K. (2022) Algorithmic Bias in Machine Learning-Based Marketing Models. Journal of Business Research. Vol. 144. P. 201-216. DOI: 10.1016/j.jbusres.2022.01.083
Andriyanova E.D. (2021) Gosudarstvennaya sluzhba v Rossiyskoy Federatsii: ponyatiye, printsipy i vidy [Civil service in the Russian Federation: concept, principles and types]. Molodoy uchenyy. No. 45(387). P. 26-29.
Berzin B.Yu. (2012) Value Orientations of Civil Servants in the Behavior Regulation System. Sotsium i vlast'. No. 2(34). P. 85-88.
Demichev K.A. (2021) Public Service in Russia as a Chrono-Discrete Institution: Towards the Formulation of the Problem. Vestnik Nizhegorodskogo instituta upravleniya. No. 1(59). P. 6-11.
Demidov A.Yu., Lukashov A.I. (2021) Selected Approaches to Digital Transformation of Public Administration. Gosudarstvennaya sluzhba. Vol. 23, No. 1(129). P. 28-34. DOI: 10.22394/2070-8378-2021-23-1-28-34
Francisco M., Linner B.-O. (2023) AI and the Governance of Sustainable Development. An Idea Analysis of the European Union, the United Nations, and the World Economic Forum. Environmental Science & Policy. Vol. 150. DOI: 10.1016/j.envsci.2023.103590
Glazyev S.Yu. (2023) Prospects for the Development of Russia on the Long-Term Wave of Growth in the New Technological Order. Ekonomicheskoe vozrozhdenie Rossii. No. 2(76). P. 27-32. DOI: 10.37930/1990-9780-2023-2(76)-27-32
Kondratieva A.A., Kudinova VD., Perova M.V (2022) Digitalization of Civil Service. Mezhdunarodnyy studencheskiy nauchnyy vestnik. No. 1. Available at: https://elibrary.ru/download/elibrary 48447907 88451669.pdf
Lyubtsova A.V. (2020) Value Orientations of Today's Youth in the Context of Prosocial Behavior. Rossiyskiy psikhologicheskiy zhurnal. Vol. 17. No. 4. P. 65-79. DOI: 10.21702/rpj.2020.4.5
Madan R., Ashok M. (2023) AI Adoption and Diffusion in Public Administration: A Systematic Literature Review and Future Research Agenda. Government Information Quarterly. Vol. 40. Is. 1. DOI: 10.1016/j.giq.2022.101774
Modestov S.A. (2022) Political and Legal Aspects of Special Military Operation in Ukraine as a Strategic Counter-Terrorism Operation. VestnikAkademii voyennykh nauk. No. 2(79). P. 53-59.
Ng D.T.K., Leung J.K.L., Chu S.K.W., Qiao M.Sh. (2021) Conceptualizing AI Literacy: An Exploratory Review. Computers and Education: Artificial Intelligence. Vol. 2. DOI: 10.1016/j.caeai.2021.100041
Nikonov V.A. (2023) Special Military Operation and New World Oder. Gosudarstvennoye upravleniye. Elektronnyy vestnik. No. 99. P. 7-34. DOI: 10.24412/2070-1381-2023-99-7-34
Nikonov V.A., Voronov A.S., Sazhina VA., Volodenkov S.V, Rybakova M.V. (2021) Digital Sovereignty of a Modern State: Content and Structural Components (Based on Expert Research). Vestnik Tomskogo gosudarstvennogo universiteta. Filosofiya. Sociologiya. Politologiya. No. 60. P. 206-216. DOI: 10.17223/1998863X/60/18
Shcherbakov M.G. (2022) About the Risks and Threats of Creating "Strong" Artificial Intelligence: Statement of the Problem. Tsifrovyye tekhnologii i pravo: Sbornik nauchnykh trudov I Mezhdunarodnoy nauchno-prakticheskoy konferentsii. V 6-ti tomakh. Kazan: Izdatel'stvo "Poznaniye". Vol. 5. P. 406-413.
Soldatov A.P., Bratanovskij S.N. (2020) Public Service: Historical and Legal Research. Trudy Akademii upravleniya MVD Rossii. No. 3(55). P. 129-139.
Utegen D., Rakhmetov B.Zh. (2023) Facial Recognition Technology and Ensuring Security of Biometric Data: Comparative Analysis of Legal Regulation Models. Journal of Digital Technologies and Law. Vol. 1. No. 3. P. 825-844. DOI: 10.21202/jdtl.2023.36