Научная статья на тему 'Пределы допустимости участия искусственного интеллекта в постановлении приговора'

Пределы допустимости участия искусственного интеллекта в постановлении приговора Текст научной статьи по специальности «Право»

CC BY
3
0
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
искусственный интеллект / обучение искусственного интеллекта / постановление приговора / принцип справедливости / свобода судейского усмотрения / artificial intelligence / artificial intelligence training / sentencing / principle of justice / judicial discretion

Аннотация научной статьи по праву, автор научной работы — Папышева Елена Сергеевна

Внедрение искусственного интеллекта (далее – ИИ) в уголовное судопроизводство поднимает проблемы, с которыми правовая наука еще не сталкивалась, и порождает множество вопросов, ответы на которые не столь однозначны. Целью исследования являются выявление и оценка потенциальных рисков, пределов допустимости использования ИИ при постановлении приговора, возможности влияния ИИ на улучшение качества принимаемых судом решений. В статье рассмотрены проблемы, которые возникли в некоторых странах при применении автоматизированных систем в суде. В частности, проблема «непрозрачности» ИИ – одна из наиболее неразрешимых в настоящее время, вызывающая значительные потенциальные риски использования ИИ в уголовном судопроизводстве и, по этой причине, препятствующая его применению. Зависимость ИИ от заказчика и разработчика также является потенциально опасным обстоятельством его использования при отправлении правосудия. Рассмотрены отдельные факторы положительного воздействия ИИ на качество решений суда. Сделан вывод о возможности влияния ИИ на улучшение качества принимаемых судом решений при условии ограничения пределов допустимости его использования при постановлении приговора. Вспомогательные системы с использованием ИИ, в том числе, предлагаемые отечественными авторами, могут решить проблемы дефицита времени судьи и высвободить его когнитивные ресурсы. Полная замена судьи – человека ИИ опасна. Она может привести к дегуманизации правосудия. Легитимизация ИИ в уголовном судопроизводстве должна осуществляться государством, поскольку уголовный процесс имеет государственную природу.

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

Limits of Admissibility of the Participation of Artificial Intelligence in the Decision of the Verdict

The introduction of artificial intelligence (hereinafter referred to as AI) in criminal proceedings raises problems that legal science has not yet encountered, and gives rise to many questions, the answers to which are not so unambiguous. The aim of the study is to identify and assess potential risks, the limits of admissibility of using AI in sentencing, and the possibility of AI influence on improving the quality of decisions made by the court. The article deals with the problems that have arisen in some countries when using automated systems in court. In particular, the problem of “non-transparency” of AI is one of the most intractable at present, causing significant potential risks of using AI in criminal proceedings and, for this reason, preventing its use. The dependence of AI on the customer and the developer is also a potentially dangerous circumstance of its use in the administration of justice. Some factors of the positive impact of AI on the quality of court decisions are considered. The conclusion is made about the possibility of the influence of AI on improving the quality of decisions made by the court, subject to the limitation of the limits of admissibility of its use in sentencing. Auxiliary systems using AI, including those proposed by domestic authors, can solve the problems of a judge's lack of time and free up his cognitive resources. Complete replacement of the referee a human AI is dangerous. It can lead to the dehumanization of justice. The legitimization of AI in criminal proceedings should be carried out by the state, since the criminal process is of a state nature.

Текст научной работы на тему «Пределы допустимости участия искусственного интеллекта в постановлении приговора»

УДК: 343.1 ГРНТИ: 10.79 EDN: XZFKWI

Пределы допустимости участия искусственного интеллекта в постановлении приговора

©Папышева Елена Сергеевна

Уфимский университет науки и технологий, г.Уфа, Россия [email protected]

Аннотация: Внедрение искусственного интеллекта (далее - ИИ) в уголовное судопроизводство поднимает проблемы, с которыми правовая наука еще не сталкивалась, и порождает множество вопросов, ответы на которые не столь однозначны. Целью исследования являются выявление и оценка потенциальных рисков, пределов допустимости использования ИИ при постановлении приговора, возможности влияния ИИ на улучшение качества принимаемых судом решений. В статье рассмотрены проблемы, которые возникли в некоторых странах при применении автоматизированных систем в суде. В частности, проблема «непрозрачности» ИИ - одна из наиболее неразрешимых в настоящее время, вызывающая значительные потенциальные риски использования ИИ в уголовном судопроизводстве и, по этой причине, препятствующая его применению. Зависимость ИИ от заказчика и разработчика также является потенциально опасным обстоятельством его использования при отправлении правосудия. Рассмотрены отдельные факторы положительного воздействия ИИ на качество решений суда. Сделан вывод о возможности влияния ИИ на улучшение качества принимаемых судом решений при условии ограничения пределов допустимости его использования при постановлении приговора. Вспомогательные системы с использованием ИИ, в том числе, предлагаемые отечественными авторами, могут решить проблемы дефицита времени судьи и высвободить его когнитивные ресурсы. Полная замена судьи - человека ИИ - опасна. Она может привести к дегуманизации правосудия. Легитимизация ИИ в уголовном судопроизводстве должна осуществляться государством, поскольку уголовный процесс имеет государственную природу.

Ключевые слова: искусственный интеллект, обучение искусственного интеллекта, постановление приговора, принцип справедливости, свобода судейского усмотрения.

Для цитирования: Папышева Е.С. Пределы допустимости участия искусственного интеллекта в постановлении приговора // Пробелы в российском законодательстве. 2023. Т. 16. №5. С. 386-391. EDN: XZFKWI

Limits ofAdmissibility ofthe Participation ofArtificial Intelligence in the Decision of the Verdict

©Papysheva Elena Sergeevna

Ufa UniversityofScience and Technology, Ufa, Russia [email protected]

Abstract: The introduction of artificial intelligence (hereinafter referred to as Al) in criminal proceedings raises problems that legal science has not yet encountered, and gives rise to many questions, the answers to which are not so unambiguous. The aim ofthe study is to identify and assess potential risks, the limits of admissibility of using Al in sentencing, and the possibility of At influence on improving the quality of decisions made by the court. The article deals with the problems that have arisen in some countries when using automated systems in court. In particular, the problem of "non-transparency" of Al is one of the most intractable at present, causing significant potential risks of using Al in criminal proceedings and, for this reason, preventing its use. The dependence of At on the customer and the developer is also a potentially dangerous circumstance of its use in the administration of justice. Somefactors ofthe positive impact of At on the quality of court decisions are considered. The conclusion is made about the possibility ofthe influence of At on improving the quality of decisions made by the court, subject to the limitation ofthe limits of admissibility of its use in sentencing. Auxiliary systems using Al, including those proposed by domestic authors, can solve the problems of a judge's lack oftime andfree up his cognitive resources. Complete replacement ofthe referee - a human Al - is dangerous. It can lead to the dehumanization of justice. The legitimization of At in criminal proceedings should be carried out by the state, since the criminal process is ofastate nature.

Keywords: artificial intelligence, artificial intelligence training, sentencing, principle ofjustice,judicial discretion.

Г.For citation: Papysheva E.S. Limits of Admissibility ofthe Participation ofArtificial Intelligence in the Decision of the Verdict//Gaps in Russian Legislation. 2023. Vol. 16. №5. Pp. 386-391. (in Russ.). EDN: XZFKWI

ВВЕДЕНИЕ

Развитие информационных технологий привело к проникновению искусственного интеллекта (ИИ) в правоприменение. В гражданско - правовых отношениях эти технологии достаточно активно применяются в Российской Федерации (например, использование смарт-контрактов и блокчейн-платформ для заключения и исполнения сделок)1.

Технологии ИИ пока медленно внедряются в деятельность правоохранительных органов Российской Федерации2. В настоящее время это - решение низкоуровневых задач. Так, по информации ТАСС, программа - робот без участия судебного пристава впервые в России возбудила исполнительное производство в отношении должника в Рязани3.

В уголовно - процессуальной сфере ИИ пока не применяется4. Концепция развития технологий машиночитаемого права также совершенно не затрагивает эту сферу правоотношений5.

Учитывая, что ИИ на современном этапе его развития может решать конкретные отраслевые задачи на основе алгоритмов, способных распознавать закономерности в данных и использовать их для оптимизации принятия решений, не удивительно, что в правовых системах некоторых стран он внедряется, в том числе, в уголовное судопроизводство.

Применение ИИ при вынесении приговоров активно используется в Китае6. В судебных системах некоторых стран применяются различные типы технологий

1 Несмотря на отсутствие определения этих понятий на уровне федеральных законов, они используются в подзаконных актах Правительства РФ и других органов (см., например, Комплексный план модернизации и расширения магистральной инфраструктуры на период до 2024 года); отношения, связанные с заключением и исполнением смарт - контрактов, регулируются Гражданским кодексом РФ, в частности, п.1 ст. 160, ч.2 ст.309, п.2 ст.434 ГК РФ (хотя и не явно).

2 Здесь следует заметить, что автоматизированное распределение дел в российских судах непосредственно к отправлению правосудия не относится.

3 Бобылев С. В Рязани робот впервые возбудил дело о взыскании с должника. 9 июня 2023 года. URL:https://tass.ru/obschestvo/17971333 (дата обращения 30.06.2023). Подобная практика стала возможна на основании соответствующих дополнений статьи 14 Федерального закона «Об исполнительном производстве», внесенных Федеральным законом "О внесении изменений в отдельные законодательные акты Российской Федерации" от 21.12.2021 N 417-ФЗ // Собрание законодательства РФ. 27.12.2021. № 52 (часть I), ст. 8976.

4 К примеру, Аликперовым Х.Д. разработана Электронная система определения оптимальной меры наказания «Электронные весы правосудия». Программа зарегистрирована в реестре программ для ЭВМ 15 мая 2019 г. (свидетельство о государственной регистрации программ для ЭВМ № 2019615955). Несмотря на то, что изобретение зарегистрировано, апробация системы в судах не ведется. Подробнее см.: Аликперов Х.Д. Электронная технология определения меры наказания. СПб.: Юрид. центр Пресс, 2020.

5См.: «Концепция развития технологий машиночитаемого права», утвержденная Правительственной комиссией по цифровому развитию, использованию информационных технологий для улучшения качества жизни и условий ведения предпринимательской деятельности 27.09.2021 [Электронный ресурс] // Доступ из справ,- правовой системы «КонсультантПлюс» (дата обращения 30.06.2023)

6 Pleasence, С. 2022. China uses AI to 'improve' courts - with computers

'correcting perceived human errors in a verdict' and JUDGES forced to submit a written explanation to the MACHINE ifthey disagree. Daily Mail.

URL: https://www.dailymail.co.uk/news/article-11010077/Chinese-courts-allow-AI-make-rulings-charge-people-carry-punishments.html

(дата обращения 30.06.2023).

Информацию о проблемах использования ИИ при отправлении

правосудия в КНР автору найти не удалось. Вероятно, исследования

в этой сфере носят закрытый характер.

ИИ для автоматизации процессов и помощи судьям в принятии решений. Например, в США существуют программы для анализа доказательств и расчета рисков, такие как COMPAS и PredPol. В Японии и Нидерландах также есть ряд экспериментальных систем, которые используют нейронные сети и алгоритмы машинного обучения для анализа судебных данных и помощи судьям в вынесении решений7.

Процесс вовлечения ИИ в уголовное судопроизводство остановить, полагаю, невозможно, как невозможно остановить развитие новых прорывныхтехнологий, вопреки присущему юридическим наукам консерватизму. Несмотря на отсутствие ИИ в российском уголовном судопроизводстве в настоящее время (по различным причинам, обсуждение которых не является целью настоящей статьи), развитие высоких технологий все - таки достигнет сферы отправления правосудия по уголовным делам. Эти факторы вызывают необходимость обсуждения проблем, которые могут возникнуть в процессе внедрения и использования ИИ при вынесении судом итоговых процессуальных решений; выявления и оценки потенциальных рисков и последствий использования ИИ.

Насколько, в каких пределах ИИ может быть допущен к участию в постановлении судом приговора, не только затрагивающего, но и в большей степени, ограничивающего права граждан; не представляет ли это угрозу их конституционным правам? Может ли ИИ, и каким образом улучшить качество выносимых приговоров и иных итоговых решений? Нужен ли вообще ИИ в уголовном судопроизводстве? Ответы на эти вопросы не столь однозначны.

ВОЗМОЖНОСТИ ИСПОЛЬЗОВАНИЯ МАТЕМАТИЧЕСКОЙ МОДЕЛИ РАСЧЕТА ПРИ НАЗНАЧЕНИИ НАКАЗАНИЯ

Представляется допустимым при определении вида, размера основного и дополнительного наказания по УК РФ использование математической модели расчета: исходя из категории преступления, возраста лица, его совершившего, определения наличия и вида рецидива преступлений, смягчающих и отягчающих наказание обстоятельств, порядка судебного разбирательства и других обстоятельств. Исходные данные (содержащиеся в УК РФ) позволяют создать подобную модель, применимую к конкретным уголовным делам. С другой стороны, у судьи есть определенная свобода усмотрения - возможность назначить наказание более мягкое, чем предусмотрено законом (ст.64 УК РФ), учесть какие - либо обстоятельства совершения преступления или касающиеся личности лица, привлекаемого к уголовной ответственности. Насколько эти обстоятельства могут вписаться в математическую модель8? Но свобода судейского усмотрения ценна лишь

'Noiret, S., Lumetzberger, J., & Kampel, M. (2021, December). Bias and Fairness in Computer Vision Applications of the Criminal Justice System. In 2021 IEEE Symposium Series on Computational Intelligence (SSCI) (pp. 1-8). IEEE.

8 Так, Аликперов Х.Д., описывая разработанную им с командой электронную систему определения оптимальной меры наказания «Электронные весы правосудия», указал на то, что программой оставлен разумный рамочный простор для судейского усмотрения при постановлении обвинительного приговора посредством электронной системы. Помимо прочего, на усмотрение судьи (суда) оставлены признание в качестве смягчающих обстоятельства, не предусмотренные ч.1 СТ.61УК РФ, а также возможность применения

при соблюдении принципа справедливости.

Поляков С.Б., анализируя судебную практику, обоснованно приходит к выводу о том, что нет оснований для утверждения о массовой справедливости судьи -человека. Наоборот, очевиден вывод о шаблонности мышления и бездушности основной части судей, воспроизводящих положения закона о необходимости находить баланс между ценностями [Поляков, 2021: 215]9.

Возможно, применение ИИ в процессе определения вида и размера наказания все-таки будет способствовать гармонизации принятия решений и назначения наказаний, а это, в свою очередь - снижению неравенства граждан при постановлении приговоров по аналогичным делам разными судами (судьями), и, соответственно, будет направлено на реализацию принципа справедливого приговора (ст.297 УПК РФ). В этом есть определенный положительный аспект применения ИИ при постановлении приговора.

ПРОБЛЕМЫ «ПРОЗРАЧНОСТИ» ИСПОЛЬЗОВАНИЯ ИИ В УГОЛОВНОМ СУДОПРОИЗВОДСТВЕ

С определением вида и назначением размера наказания связаны вопросы рецидива преступлений. Примером применения риск-ориентированных подходов к оценке рецидива преступлений лицом, привлекаемым к уголовной ответственности в США является программа (система) COMPAS10. В системе Saiban-in в Японии используют базы данных для хранения и обработки информации о делах, включая данные о подсудимых, свидетелях и доказательствах. Базы данных также используются для автоматизации процессов судебных заседаний и анализа статистики. Использование ИИ для прогнозирования будущих событий, в том числе оценки риска рецидива и выбора наказания, с одной стороны, можетбыть эффективным11.

С другой же - несомненным достоинствам применения ИИ в этой сфере деятельности судьи при отправлении правосудия противостоит значительная проблема в его использовании. Так, система COMPAS подверглась критике из-за отсутствия «прозрачности» в связи с тем, что доступ к информации об алгоритмах работы системы является коммерческой тайной12. Машинное обучение и выявление закономерностей в ранее рас-

положений ст.64 УК РФ. См.: Аликберов Х.Д.Электронная система определения оптимальной меры наказания (постановка проблемы) // Криминология: вчера, сегодня, завтра. 2018. №4 (51). С.20.

'Поляков С.Б. Наше мнение: только искусственный интеллект принудит судью к справедливости // Вестник Московского университета МВД России. 2021. №3. С.215.

Здесьуместно отметить, что Поляков С.Б. и Гилев И.А. разработали программу информационно-технологической поддержки принятия судебных решений по гражданским делам «Лазер-ИП-ГПК-2020». См.: С.Б.Поляков, И.А.Гилев. Слова и дела «цифровизации права» // Российский юридический журнал. 2023. №1 (148). С.93.

10 COMPAS (т.е. «Correctional Offender Management Profiling for Alternative Sanctions») - инструмент (программа) для ведения дел и поддержки принятия решений, используемых судами США для оценки вероятности рецидива преступлений.

11 Reichel, P. L., & Suzuki, Y. Е. (2015). Japan's lay judge system: A summary of its development, evaluation, and current status. International Criminal Justice Review, 25(3), 247-262

12 Noiret, S., Lumetzberger, J., & Kampel, M. (2021, December). Bias and Fairness in Computer Vision Applications of the Criminal Justice System. In 2021 IEEE Symposium Series on Computational Intelligence (SSCI) (pp. 1-8). IEEE.

смотренных делах и вынесенных решениях привели к предвзятости COMPAS в отношении афроамерикан-цев13. Хотя разработчики программы утверждают, что не закладывали в программу сведения и расовых особенностях14. Аналитика на основе больших данных и автоматизированное машинное обучение выявили закономерности в выносимых ранее судебных решениях.

Электронная система определения оптимальной меры наказания «Электронные весы правосудия» Аликперова Х.Д., в которой используется ИИ, также была подвергнута критике по той причине, что «алгоритм определения вида наказания автор не расписывает»15. Проблема «прозрачности», общедоступности информации о внутренней логике системы, понимания принимаемых ИИ решений, несовершенства механизма проверки существует во всех сферах правоприменения16.

Оценка обстоятельств дела на основании заложенных алгоритмов создает угрозу правам человека. Человек может стать просто объектом для обработки информации и принятия решения машиной. «Непрозрачность» принятия решения усугубляет эту ситуацию. Но в приговоре должны быть изложены причины, по которым суд приходит к определенным выводам и принимает соответствующее решение, ИИ должен быть объяснимым.

Эта проблема является общей для всех стран независимо от вида правовой системы. В настоящее время ведется исследовательская работа в университетах и коммерческих организациях над созданием «объяснимого» ИИ не только владельцам технологий, но и пользователям - судьям и, что особенно важно, осужденным - лицам, чьи права напрямую затрагивают и ограничивают применяемые технологии17.

ЛЕГИТИМИЗАЦИЯ ГОСУДАРСТВОМ ИИ В УГОЛОВНОМ СУДОПРОИЗВОДСТВЕ

Порядок уголовного судопроизводства устанавливается государством посредством Уголовно - процессуального кодекса (ст.1 УПК РФ). Для применяемого в уголовном судопроизводстве ИИ заказчиком выступят государственные органы, финансирующие программу, соответственно, они смогут влиять на разработку

13 См, например: Barabas, С. 2021. Beyond Bias: Reimagining the Terms "Ethical Al" in Criminal Law. Georgetwon Law.

"Khademi, A., & Honavar, V. (2020, April). Algorithmic bias in recidivism prediction: A causal perspective (student abstract). In Proceedings ofthe AAAI Conference on Artificial Intelligence (Vol. 34, No. 10, pp. 1383913840).

15 Маслов И.В. Отзыв на монографию доктора юридических наук, профессора Аликперова Ханлара Джафаровича «Электронная технология определения меры наказания» («Электронные весы правосудия»)// Российский судья. 2020. № 11. С.58.

16 По аналогичным причинам возникли проблемы с использованием правительством Нидерландов системы «SyRI» (т.е. Sisteem Risico Indicatie), которая представляет собой автоматизированную систему индикации рисков, используемую правительством Нидерландов для выявления случаев мошенничества с налогами и социальным обеспечением, в которой использовались структурированные наборы данных, собранные и хранящиеся государственными учреждениями, для составления отчета о рисках, касающихся человека. CM.:Watch, А. (2020). How Dutch activists got an invasive fraud detection algorithm banned. Algorithmic Watch's Automating Society Report, 160-163.

17 de Bruijn, H., Warnier, M., & Janssen, M. (2022). The perils and

pitfalls of explainable Al: Strategies for explaining algorithmic decisionmaking. Government Information Quarterly, 39(2), 101666.

алгоритма, заложить в программу обучения ИИ скрытые алгоритмы, влияющие на принятие решений ИИ, иметь возможность изменять алгоритм, его функции дополнением, изменением или отменой из системы. Подобное вторжение в программу возможно скрытно от правоприменителя (судьи).

Государственные органы и, соответственно, сторона обвинения будут осведомлены о принципах работы алгоритма, а защита - вряд ли. Представители государственных органов (по инициативе которых ИИ будет создан в уголовном судопроизводстве), в отличие от стороны защиты (не имеющей к этому отношения), будут обладать информацией о том, как формировать доказательства так, чтобы алгоритм мог их лучше понимать и принимать. В таком случае принципы равенства сторон и состязательности (ст.15УПК РФ) окажутся под угрозой.

ИИ, участвующий в постановлении приговора, должен быть независимым и беспристрастным, но он зависим от разработчиков и оттого, кто финансирует его создание. Это является потенциально опасным фактором использования ИИ в постановлении приговора. Отсутствие правовых регуляторных рамок создания и использования ИИ вполне способствует этому18.

Вероятно, для защиты от внешнего воздействия необходима определенная сертификация систем в целях некой «герметизации» ИИ от незаконного (нерегуля-торного) воздействия.

ПРОБЛЕМЫ ОБУЧЕНИЯ ИИ НА ОСНОВЕ ДАННЫХ И ЕГО ПРИМЕНЕНИЯ В УГОЛОВНОМ ПРОЦЕССЕ

ИИ способен к обучению и самообучению. Оттого, на какой судебной практике он будет обучаться, напрямую зависит качество выносимых приговоров. Правила вынесения приговоров, требования, предъявляемые к его содержанию и форме, строго регламентированы главой 39 УПК. Кроме того, правила применения и толкования норм материального и процессуального права должны в равной степени одинаково использоваться судьями в разных регионах России и в судах различных инстанций. Ведь ИИ будет обучаться на конкретной судебной практике. А она нередко бывает различной в разных субъектах РФ19.

18 Более подробно об этом, см., например: Papyshev, G., & Yarime, М. (2022). The limitation of ethics-based approaches to regulating artificial intelligence: regulatory gifting in the context of Russia. AI & SOCIETY, 1-16.

Примером также могут служить недавние разоблачения компании OpenAI, уличенной в лоббировании своих интересов при формировании законодательства об ИИ. Tech Artificial Intelligence Exclusive: OpenAI lobbied the EU to water down AI regulation. Exclusive: OpenAI lobbied the EU to water down AI regulation by Billy Perrigo, June 20, 2023. URL: https://time.com/6288245/openai-eu-lobbying-ai-act/

19 Здесь вспоминается существовавшая в одном из регионов РФ практика, при которой Верховный суд Республики, будучи апелляционной и кассационной инстанцией (в период незадолго до создания апелляционных и кассационных судов) по рассматриваемым в инстанциях уголовным делам признавал дачу лицом (совершившем преступление, в последующем имеющим процессуальный статус подсудимого и осужденного) признательного объяснения как явку с повинной и, соответственно, обстоятельством, смягчающим наказание в соответствии со ст.61 УК РФ, с незначительным снижением размера назначенного судом первой инстанции наказания. Данная позиция представляется спорной. Тем не менее, нижестоящие суды, исходя из названной практики, как по шаблону, стали столь же широко трактовать «явку с повинной», во избежание изменения приговора вышестоящим судом. В других субъектах подобного широкого

С этой позиции, использование технологий ИИ при вынесении приговора приведет к единообразной судебной практике на всей территории Российской Федерации, что можно отметить как положительный аргумент в пользу ИИ.

Судья в приговоре должен изложить мотивы, по которым отвергает доказательства (ст.ст.305, 307 УПК РФ), мотивы решения всех вопросов, относящихся к назначению уголовного наказания (ст.307 УПК РФ) и т.д. Результаты оценки доказательств, мотивы принимаемых решений во многом зависят от личностных, нравственных и профессиональных качеств человека - судьи. Поэтому решения разных судей различны, они могут быть даже противоположенными. Отсюда возникает вопрос: насколько возможно обучение ИИ на основании противоречивых итоговых судебных решений20?

Беспристрастность ИИ - вопрос проблемный. Беспристрастность алгоритма напрямую зависит от беспристрастной работы судьи, поскольку на судебных решениях будет обучаться ИИ. Оценки, основанные на предыдущих решениях других судов - это предложение «непрозрачного» алгоритма. Если исходные решения судов, использованные для обучения ИИ, содержат элементы предвзятости (пусть даже подсознательной), то это приведет к негативному результату: приговору с той же предвзятостью (так называемая, «петля обратной связи»21). Следовательно, проблема качества исходных приговоров для автоматизированного машинного обучения является острой. Кто и каким образом будет производить обработку больших массивов данных (десятков, сотен тысяч приговоров) и выбор из них допустимых для обучения ИИ, от качества которых напрямую зависит результат? Вступление приговора в силу не является гарантией того, что он законный, обоснованный и справедливый. Убеждена, что этой работой должны заниматься квалифицированные и опытные юристы (как ученые, так и практики).

Должны быть разработаны определенные «Стандарты»22 как для сферы обучения ИИ, так и для использования ИИ в постановлении приговоров, которыми будет руководствоваться ИИ и в дальнейшем использовать эту стандартизацию на практике при составлении процессуальных актов: равнозначных и справедливых решений, независимо от субъективных оценок судьи- человека. В разработке подобных документов должны принимать участие как IT-специалисты, так и юристы.

толкования данной нормы права автором не замечено.

20 По мнению Полякова С.Б. и Гилева И.А., с которым следует согласиться, создание компьютером на основе массива судебных решений... «самообучаемых алгоритмов» - подмена закона дурной практикой. См.: Предметная область информатизации судебных решений // Вестник Пермского университета. Юридические нау-ки.2021. №3 С.462- 487.

21 Zanzotto, F. M. (2019). Human-in-the-loop artificial intelligence. Journal of Artificial Intelligence Research, 64, 243-252.

22 К примеру, 13.06.2023 опубликован проект стандарта «Искусственный интеллект. Методология оценки разработки программного обеспечения для глубокого обучения», согласно которому объектом стандартизации является методология оценки среды разработки ПО для глубокого обучения как для среды обучения, так и для среды вывода // Предварительный национальный стандарт Российской Федерации «Искусственный интеллект. Методология оценки разработки программного обеспечения для глубокого обучения», Москва, Российский институт стандартизации, 2023. URL: https://bigdata.msu. ru/standards/ (дата обращения 30.06.2023)

В силу ст.8 Уголовно - процессуального кодекса РФ, правосудие по уголовному делу осуществляется только судом. Судья разрешает вопросы, входящих в его компетенцию на основании норм права, после разбирательства, проводимого в установленном порядке; он свободен в оценке доказательств (ст.17УПК РФ). Но, с другой стороны, у него и больше возможностей для оказания каких - либо преференций при вынесении решения (например, вследствие получения взятки).

ИИ не отвечает требованиям, предъявляемым к судьям - он не человек, ИИ не может действовать по своему усмотрению. Но его технические компетенции будут, вероятно, безупречны, ему присущ низкий уровень ошибок и ошибочных решений. Качество юридических рассуждений, заключений будет также высок как у человека- судьи. Его нельзя подкупить, он не может быть заинтересован в исходе дела23. Это является позитивным аргументом в пользу вовлечения ИИ в уголовное судопроизводство.

С другой стороны, насколько независим от позиции ИИ будет человек - судья? Конечно, судья, который использует ИИ для подготовки процессуального акта, не обременен обязательством следовать его рекомендациям, более того, он независим. Даже если ИИ будет использоваться только как вспомогательное средство, поддерживающего работу судьи, тем не менее, как показывают исследования, человеку свойственна склонность к автоматизации24. Он скорее примет предложение программы, даже если это предложение для него не обязательно. К примеру, в КНР Верховный суд с недавних пор вообще обязал судей при отклонении рекомендаций ИИ письменно изложить объяснения своей позиции25.

23 Как сказал глава «Сбера» Греф Г. в интервью корреспонденту РБК Анисимовой Н. на сессии ПМЭФ 15.06.2023, при анализе данных у искусственного интеллекта есть преимущество; его сильная сторона в том, что ИИ «не понимает, куда и зачем брать взятку, зачем положить это под стол, чтобы это отлежалось пару месяцев». Подробнее на PBK:URL:https://www.rbc.ru/politics/15/06/2023/648af 35c9a79471a6108813b (дата обращения 30.06.2023)

24 Strauß, S. (2021). Deep automation bias: How to tackle a wicked problem ofai?. Big Data and Cognitive Computing, 5(2), 18.

25Pleasence, C. 2022. China uses Alto 'improve' courts - with computers 'correcting perceived human errors in a verdict' and JUDGES forced to submit a written explanation to the MACHINE ifthey disagree. Daily Mail. URL: https://www.dailymail.co.uk/news/article-11010077/Chinese-courts-allow-AI-make-rulings-charge-people-carry-punishments.html

https://www.dailymail.co.uk/news/article-11010077/Chinese-courts-allow-AI-make-rulings-charge-people-carry-punishments.html (дата обращения 30.062023)

ЛИТЕРАТУРА

1. Аликберов Х.Д. Электронная система определения оптимальной меры наказания (постановка проблемы) // Криминология: вчера, сегодня, завтра. 2018. №4 (51). С.13-22.

2. Аликперов Х.Д. Электронная технология определения меры наказания. СПб.: Юрид. центр Пресс, 2020.168 с.

3. Маслов И.В. Отзыв на монографию доктора юридических наук, профессора Аликперова Ханлара Джафаровича «Электронная технология определения меры наказания» («Электронные весы правосудия») // Российский судья. 2020. № 11. С.55-60.

ВЫВОДЫ

Судьи, как никто другой, завалены рутинной работой, необходимостью совершения большого количества формальных процессуальных действий и вынесения процессуальных решений. Соответственно, необходимо сократить дефицит времени, разгрузить судей, высвободив дополнительные когнитивные ресурсы человека - судьи, изменить среду, в которой им принимаются решения. Тогда у него будет больше времени на постановление итоговых процессуальных решений. Вспомогательные системы с использованием ИИ решают эту проблему.

Вопрос допустимости использования ИИ при вынесении приговора остается открытым. Алгоритм вынесения приговора должен соответствовать высоким стандартам прозрачности и справедливости, опыту судьи, его навыкам, профессиональным юридическим компетенциям и моральной честности. Уровень развития ИИ в настоящее время не отвечает на этот запрос. Использование ИИ вместо человека при решении судьбы человека (в уголовном судопроизводстве проблема стоит именно так) - это дегуманизация правосудия.

Добровольное использование судьей ИИ как вспомогательных систем поддержки вынесения приговора для ускорения и упрощения отправления правосудия вполне допустимо и даже необходимо. Технологические инструменты, позволят судьям разобраться в огромном количестве информации, находящейся в их распоряжении.

Расчет назначаемого уголовного наказания под силу ИИ. Но и законодательное регулирование этого института должно стать ясным, юридически верным, достоверным. Расплывчатые правила, «вилки» в видах и размерах наказаний (и как вследствие- широта дискреционных полномочий) должны стать более конкретизированными, уточняться для обучения ИИ; соотношение между категориями умышленных и неосторожных преступлений - более логичным для понимания ИИ. Безусловно, что в сфере судопроизводства первопроходцем в создании и использовании ИИ будет государство, оно будет нести особую ответственность за деятельность ИИ.

ЗАКЛЮЧЕНИЕ

Полное замещение судьи ИИ недопустимо. Использование ИИ как вспомогательного средства при вынесении судом итоговых процессуальных решений не только возможно, но и необходимо. Однако работы по его созданию должны вестись под эгидой государства и им же финансироваться, поскольку уголовный процесс имеет государственную природу.

REFERENCES

1. Alikberov Kh.D. Electronic system for determining the optimal measure of punishment (problem statement) // Criminology: yesterday, today, tomorrow. 2018. No. 4 (51). pp.13-22.

2. Alikperov Kh.D. Electronic technology for determining the measure of punishment. SPb.: Jurid. Center Press, 2020.168 p.

3. Maslov I.V. Feedback on the monograph of Doctor of Law, Professor Alikperov Khanlar Dzhafarovich "Electronic technology for determining the measure of punishment" ("Electronic scales of justice") // Russianjudge. 2020. No. 11. P.55-60.

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

4. Поляков С.Б., Гилев И.А. Предметная область информатизации судебных решений // Вестник Пермского университета. Юридические нау-ки.2021. №3 С.462- 487.

5. Поляков С.Б., Гилев И.А. Слова и дела «цифрови-зации права» // Российский юридический журнал. 2023. №1 (148). С.85-96.

6. Поляков С.Б. Наше мнение: только искусственный интеллект принудит судью к справедливости // Вестник Московского университета МВД России. 2021. №3. С.213-218.

7. Barabas, С. 2021. Beyond Bias: Reimagining the Terms "Ethical AI" in Criminal Law. Georgetwon Law.

8. de Bruijn, H., Warnier, M., & Janssen, M. (2022). The perils and pitfalls of explainable AI: Strategies for explaining algorithmic decision-making. Government Information Quarterly, 39(2), 101666.

9. Khademi, A., & Honavar, V. (2020, April). Algorithmic bias in recidivism prediction: A causal perspective (student abstract). In Proceedings of the AAAI Conference on Artificial Intelligence (Vol. 34, No. 10, pp. 13839-13840).

10. Noiret, S., Lumetzberger, J., & Kampel, M. (2021, December). Bias and Fairness in Computer Vision Applications of the Criminal Justice System. In 2021 IEEE Symposium Series on Computational Intelligence (SSCI) (pp. 1-8). IEEE.

11. Papyshev, G., & Yarime, M. (2022). The limitation of ethics-based approaches to regulating artificial intelligence: regulatory gifting in the context of Russia. AI & SOCIETY, 1-16.

12. Reichel, P. I., & Suzuki, Y. E. (2015). Japan's lay judge system: A summary of its development, evaluation, and current status. International Criminal Justice Review, 25(3), 247-262.

13. Strauß, S. (2021). Deep automation bias: How to tackle a wicked problem of ai?. Big Data and Cognitive Computing, 5(2), 18.

14. Watch, A. (2020). How Dutch activists got an invasive fraud detection algorithm banned. Algorithmic Watch's Automating Society Report, 160-163.

15. Zanzotto, F. M. (2019). Human-in-the-loop artificial intelligence. Journal of Artificial Intelligence Research, 64, 243-252.

СВЕДЕНИЯ ОБ АВТОРЕ

Папышева Елена Сергеевна, канд. юрид. наук, доцент, Институт права, Уфимский университет науки и технологий, г.Уфа. РИНЦ Author ID: 1047641; ORCID https://orcid.org/0000-0001-8157-8805; Индекс Хирша -6. E-mail: [email protected]

4. PolyakovS.B., Gilevl.A. Subjectarea of informatization of judicial decisions // Bulletin of the Perm University. Legal sciences.2021. No. 3 P.462-487.

5. Polyakov S.B., Gilev I.A. Words and deeds of "digitalization of law" // Russian Journal of Law. 2023. No. 1 (148). P.85-96.

6. Polyakov S.B. Our opinion: only artificial intelligence will force a judge to justice // Bulletin of the Moscow University of the Ministry of Internal Affairs of Russia. 2021. №3. pp.213-218.

7. Barabas, C. 2021. Beyond Bias: Reimagining the Terms "Ethical AI" in Criminal Law. Georgetwon Law.

8. de Bruijn, H., Warnier, M., & Janssen, M. (2022). The perils and pitfalls of explainable AI: Strategies for explaining algorithmic decision-making. Government Information Quarterly, 39(2), 101666.

9. Khademi, A., & Honavar, V. (2020, April). Algorithmic bias in recidivism prediction: A causal perspective (student abstract). In Proceedings of the AAAI Conference on Artificial Intelligence (Vol. 34, No. 10, pp. 13839-13840).

10. Noiret, S., Lumetzberger, J., & Kampel, M. (2021, December). Bias and Fairness in Computer Vision Applications of the Criminal Justice System. In 2021 IEEE Symposium Series on Computational Intelligence (SSCI) (pp. 1-8). IEEE.

11. Papyshev, G., & Yarime, M. (2022). The limitation of ethics-based approaches to regulating artificial intelligence: regulatory gifting in the context of Russia. AI & SOCIETY, 1-16.

12. Reichel, P. I., & Suzuki, Y. E. (2015). Japan's lay judge system: A summary of its development, evaluation, and current status. International Criminal Justice Review, 25(3), 247-262.

13. Strauß, S. (2021). Deep automation bias: How to tackle a wicked problem of ai?. Big Data and Cognitive Computing, 5(2), 18.

14. Watch, A. (2020). How Dutch activists got an invasive fraud detection algorithm banned. Algorithmic Watch's Automating Society Report, 160-163.

15. Zanzotto, F. M. (2019). Human-in-the-loop artificial intelligence. Journal of Artificial Intelligence Research, 64, 243-252.

94,9%

ABOUTTHEAUTHOR

Papysheva Elena Sergeevna, Cand.Sci.(Law), Associate Professor, Institute of Law, Ufa University of Science and Technology, Ufa. RSCI Author ID: 1047641; ORCID https:// orcid.org/0000-0001-8157-8805; Hirsch Index - 6. E-mail: [email protected]

Статья прошла проверку системой «Антиплагиат»; оригинальность текста -

Статья поступила в редакцию 09.07.2023, принята к публикации 31.07.2023 The article was received on 09.07.2023, accepted for publication 31.07.2023

i Надоели баннеры? Вы всегда можете отключить рекламу.