Научная статья на тему 'Принципы – приоритеты как основа для преодоления рисков использования искусственного интеллекта в судопроизводстве: в продолжение разговора...'

Принципы – приоритеты как основа для преодоления рисков использования искусственного интеллекта в судопроизводстве: в продолжение разговора... Текст научной статьи по специальности «Право»

CC BY
1
0
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
искусственный интеллект / судопроизводство / цифровые технологии / принципы-приоритеты / судебная система / artificial intelligence / legal proceedings / digital technologies / principles-priorities / judicial system

Аннотация научной статьи по праву, автор научной работы — Волосова Нонна Юрьевна

Статья является продолжением цикла статей автора, посвященных перспективам использования искусственного интеллекта в судопроизводстве. В работе обосновывается необходимость формирования принципов-приоритетов правосудия с использованием систем искусственного интеллекта как основы для защиты прав человека и формировании новой этики правосудия. На основе исследования опыта КНР делается вывод, что такие принципы формируют охранительный механизм, который позволит обезопасить участников судопроизводства при рассмотрении дел с использованием систем искусственного интеллекта.

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

Principles – Priorities as a Basis for Overcoming the Risks of Using Artificial Intelligence in Court Proceedings: In the Continuation of the Conversation...

The article is a continuation of the author’s series of articles devoted to the prospects of using artificial intelligence in legal proceedings. The paper substantiates the need for the formation of principles-priorities of justice using artificial intelligence systems as a basis for the protection of human rights and the formation of a new ethics of justice. Based on the study of the experience of the People’s Republic of China, it is concluded that such principles form a protective mechanism that will make it possible to protect participants in legal proceedings when considering cases using artificial intelligence systems.

Текст научной работы на тему «Принципы – приоритеты как основа для преодоления рисков использования искусственного интеллекта в судопроизводстве: в продолжение разговора...»

УГОЛОВНО-ПРАВОВЫЕ НАУКИ

CRIMINAL LAW

5.1.4 Уголовно-правовые науки

(юридические науки)

Criminal Law

DOI: 10.33693/2782-7372-2024-3-1-43-48 УДК: 343.1 ГРНТИ: 10.77 EDN: ZQADPH

Принципы - приоритеты как основа для преодоления рисков использования искусственного интеллекта в судопроизводстве: в продолжение разговора...

Н.Ю. Волосова ©

Оренбургский государственный университет, г. Оренбург, Российская Федерация

E-mail: [email protected]

Аннотация. Статья является продолжением цикла статей автора, посвященных перспективам использования искусственного интеллекта в судопроизводстве. В работе обосновывается необходимость формирования принципов-приоритетов правосудия с использованием систем искусственного интеллекта как основы для защиты прав человека и формировании новой этики правосудия. На основе исследования опыта КНР делается вывод, что такие принципы формируют охранительный механизм, который позволит обезопасить участников судопроизводства при рассмотрении дел с использованием систем искусственного интеллекта.

Ключевые слова: искусственный интеллект, судопроизводство, цифровые технологии, принципы-приоритеты, судебная система

DOI: 10.33693/2782-7372-2024-3-1-43-48

Principles - Priorities as a Basis for Overcoming the Risks

of Using Artificial Intelligence in Court Proceedings: In the Continuation of the Conversation...

N.Yu. Volosova ©

Orenburg State University, Orenburg, Russian Federation

E-mail: [email protected]

Abstract. The article is a continuation of the author's series of articles devoted to the prospects of using artificial intelligence in legal proceedings. The paper substantiates the need for the formation of principles-priorities of justice using artificial intelligence systems as a basis for the protection of human rights and the formation of a new ethics of justice. Based on the study of the experience of the People's Republic of China, it is concluded that such principles form a protective mechanism that will make it possible to protect participants in legal proceedings when considering cases using artificial intelligence systems.

Key words: artificial intelligence, legal proceedings, digital technologies, principles-priorities, judicial system

FOR CITATION: Volosova N.Yu. Principles - Priorities as a Basis for Overcoming the Risks of Using Artificial Intelligence in Court Proceedings: In the Continuation of the Conversation... Lobbying in the Legislative Process. 2024. Vol. 3. No. 1. Pp. 43-48. (In Rus.) DOI: 10.33693/2782-7372-2024-3-1-43-48. EDN: ZQADPH

ВВЕДЕНИЕ

В современном мире человек очень активно использует различные технологии для облегчения свой деятельности. Системы искусственного интеллекта в последнее время стали особенно востребованы в финансовой и банковской сферах, сфере безопасности, медицины и многих других. Судебная система не может оставаться в стороне от общих тенденций развития общества, современных технологических процессов, а потому информационные технологии постепенно становятся её неотъемлемой частью [10].

Сегодня как теоретиками, так и практиками поднимается вопрос о возможности использования искусственного интеллекта в судопроизводстве. А зарубежный опыт внедрения подобных систем в процесс рассмотрения в суде различной категории дел показывает практическую реализацию такой возможности.

В сентябре 2022 г. председатель Верховного Суда РФ В. Лебедев озвучил возможность применения искусственного интеллекта для взыскания с россиян долгов по кредитам в приказном порядке (когда сам предмет спора отсутствует, и суд оформляет взыскание долга в самой упрощенной процедуре) [11]. Обосновывая необходимость принятия такого решения, была отмечена достаточно высокая нагрузка на судей по такой категории дел, которые в 99% случаев рассматриваются в приказном порядке, а современные реалии развития общественных отношений требуют рассмотрения перспектив использования искусственного интеллекта.

Позднее, 25 мая 2023 г. на Совете судей В. Лебедевым была подчеркнута все возрастающая востребованность цифровых технологий в судопроизводстве. А председатель Совета судей России В. Момотов отметил, что суперсервис «Правосудие онлайн» предлагает использование в том числе технологий искусственного интеллекта, который будет применяться для автоматизированного составления судебных актов на основе анализа текста процессуального обращения и материалов судебного дела, что позволит судье подготовить проект судебного решения [Тамже].

Во всем мире, и Российская Федерация не стала исключением, очень давно рассматривали вопрос об упрощении работы судебной системы и уменьшении нагрузки судей, освобождении их от рутинной работы. Одним из вариантов решения данной проблемы предлагается использование возможностей искусственного интеллекта, а это требует постановки вопроса о формировании особых охранительных механизмов при его использовании, а также формировании новой этики правосудия.

О ПРОБЛЕМЕ ИСПОЛЬЗОВАНИЯ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА

Обсуждая проблему использования искусственного интеллекта в судопроизводстве, исследователи разделились на два противоположных лагеря, часть из которых стоит на категоричных позициях неприятия предложения и возможности использования

Волосова Н.Ю.

систем искусственного интеллекта в судопроизводстве, а другая на возможности такого использования. Среди основных возражений противники использования систем искусственного интеллекта в разрешении судебных дел указывают на то, что робот не может решать судьбу человека [1]. Их противники говорят о возможности использование искусственного интеллекта по не сложной категории судебных дел, которые являются очевидными, под контролем человека [12].

Во многих государствах с большой осторожностью подходят к решению вопроса об использовании систем искусственного интеллекта в судебной деятельности. Однако отмечают, что такое использование позволит существенно оптимизировать судебную систему и работу судей. По такому пути идет, например, Бразилия, Китай и некоторые другие страны, однако следует отметить, что законодателем создаются особые охранительные механизмы, которые используются при рассмотрении дел с использованием искусственного интеллекта.

В большинстве государств, где рассматривают перспективы и отчасти используют в судопроизводстве подобные технологии, применяются системы слабого искусственного интеллекта.

Данное понятие требует своего пояснения. Оно появилось в связи с гипотезой в философии искусственного интеллекта, согласно которой некоторые формы искусственного интеллекта могут действительно обосновывать и решать проблемы [Там же]. Причем рассматривается не только слабый искусственный интеллект, но и его противоположность - сильный искусственный интеллект. Но начнем мы с понятия искусственного интеллекта вообще.

Искусственный интеллект - это обширный раздел компьютерных наук, цель которого - создать видимость наличия у машины человеческого интеллекта. Таким образом, если компьютер демонстрирует когнитивные способности, присущие людям, то мы называем это искусственным интеллектом [2:2].

Искусственный интеллект узкого назначения или как его еще называют слабый искусственный интеллект - это искусственный интеллект в сегодняшнем его понимании. Его особенностью является узкоспециальное программирование на решение конкретной проблемы, задачи, которая заложена программистом ввиду возможности ее решения с помощью существующих технологий. Например, перевод текстов с одного языка на другой или решение других схожих задач. Диапазон решения таких узких задач достаточно разнообразен и существенно облегчает деятельность человека. Ценность такого искусственного интеллекта заключается в его работе в режиме реального времени. А недостатком - извлечение информации из ограниченного набора источников, зависящих от заложенной разработчиком в программу задачи, которую необходимо на данный момент решить.

Искусственный интеллект общего назначения, или сильный искусственный интеллект, как указывают специалисты, будет схож с человеческим интеллектом, но ждать его создания как говорят исследователи придется не одно десятилетие.

Философ Ник Востром из Оксфордского университета рассматривает вопрос о супер-ИИ. Под ним фило-

соф понимает любой интеллект, который значительно превосходит когнитивные способности человека практически во всех областях [7].

Данные технологии в своей основе направлены на реализацию философии созидания, когда они способны существенно упростить и модернизировать жизнедеятельность человека, избавить его от рутинной, механической работы. Искусственный интеллект безусловно должен стать помощником человека. Однако нельзя исключать опасности и риски, которые связаны с использованием искусственного интеллекта в человеческой деятельности.

Например, рядом исследователей, и это неоспоримо, отмечается, что супер-ИИ превзойдет людей во всех аспектах - от творчества до жизненной мудрости и решения проблем. Машины будут способны демонстрировать интеллект, который мы не видели и у самых одаренных представителей человечества. Это тот тип искусственного интеллекта, который многих беспокоит, а по мнению Илона Маска, именно он приведет к вымиранию людей как вида [13]. В связи с этим многими исследователями вопрос об использовании искусственного интеллекта начинается с опасностей и рисков такого использования, а не с той пользы которую он может принести. Что полагаем вполне оправдано.

Несмотря на готовность использования систем слабого искусственного интеллекта необходимо осознать, что они не останутся неизменными и на том же уровне, что и сейчас. Слабый искусственный интеллект будет развиваться вместе с развитием технологий, постепенно переходя на новую ступень и уровень своего развития.

И СНОВА О БЕЗОПАСНОСТИ...

Решая вопрос об использование систем слабого искусственного интеллекта в судопроизводстве, как это предлагается правоприменителями в Российской Федерации, мы уже сейчас должны задуматься не только о морально-нравственной стороне его использования, но и о разработке положений, которые бы были способны стать преградой для различных нарушений прав и свобод участников судопроизводства.

Пока предложения по использованию искусственного интеллекта основаны на оказании помощи судье-человеку в составлении судебного решения, через анализ правовой ситуации и представленных сторонами доказательствах. Контроль за проектом такого решения останется за судьей-человеком, что вытекает из этических принципов использования искусственного интеллекта, закрепленных в Европейской этической хартии об использовании искусственного интеллекта в судебных системах и окружающих их реалиях, где установлен такой принцип как контроль пользователем [9].

Однако нельзя исключать те риски, которые могут возникнуть при использовании искусственного интеллекта. В настоящий момент машину учат решать конкретную задачу. Такая математическая модель в принципе не опасна для человека, т.к. она обучаема в пределах той задачи, которую перед ней поставил разработчик.

Если рассматривать общие риски, то их очень подробно раскрывают специалисты. В частности, лаборатория Касперского указывает на следующие из них:

• плохие намерения в виде обучения решению недостаточно этичных задач (как приводят специалисты обучение дронов);

• предвзятость разработчиков алгоритма, деятельность которых в большинстве случаев направлена на извлечение выгоды для самих разработчиков, а не на благо человечества, и такой подход очень далек от морали;

• параметры системы могут не включать этику;

• этикусложноописать формально;

• машинное обучение влияет на людей и позволяет алгоритмам манипулировать людьми;

• ложные корреляции системы, когда математическая модель неверно обобщает данные;

• петли обратной связи, когда решения алгоритма влияют на реальность, что, в свою очередь, еще больше убеждает алгоритм в его точке зрения. Например, программа предупреждения преступности в Калифорнии предлагала отправлять больше полицейских в черные кварталы, основываясь на уровне преступности - количестве зафиксированных преступлений. А чем больше полицейских машин в квартале, тем чаще жители сообщают о преступлениях (просто есть кому сообщить), чаще сами полицейские замечают правонарушения, больше составляется протоколов и отчетов, - в итоге формально уровень преступности возрастает. Значит, надо отправить еще больше полицейских, и далее по нарастающей;

• «грязные» и «отравленные» исходные данные, на основе которых ведется обучение, причем это может быть и случайно, и умышленно, что в дальнейшем может привести к деградированию системы;

• взлом машинного обучения (обмануть можно и уже готовую, исправно работающую математическую модель, если знать, как она устроена) [14].

Данные риски условно можно разделить на этические и технические и они должны, как полагаю, быть учтены при использовании систем искусственного интеллекта в судопроизводстве. Следовательно, требуется существенно усилить охранительный механизм в процессе использования систем искусственного интеллекта в судопроизводстве.

В связи с рассмотренными рисками, думается, было бы верным остановиться на рисках использования систем искусственного интеллекта в судопроизводстве с учетом этических и технических рисков, установленных Лабораторией Касперского.

К рискам предложенного правоприменителем варианта использования систем искусственного интеллекта в судопроизводстве следует отнести следующие:

• субъективные риски, когда такой контроль будет на низком уровне или вовсе не произведен со стороны судьи-человека, а за основу будет взят вариант решения предложенный машиной без проверки человеком;

• объективные риски в виде сбоя системы;

• объективно-субъективный риск, когда машина может и ошибиться, и такую ошибку может не заметить судья-человек.

Совокупность таких факторов может привести к вынесению незаконного и необоснованного решения, нарушению прав и свобод участников судопроизводства, их дискриминации. Исключить такие ситуации нельзя и это требует пересмотра охранительных механизмов, которые существуют на сегодняшний день в судопроизводстве и не отвечают потребностям времени и возможности применения искусственного интеллекта.

Нами отчасти разделяется мнение тех исследователей, которые в качестве одного из охранительных механизмов предлагают установить границы применения технологий искусственного интеллекта в судебной деятельности - определить категорию дел, которые не могут быть рассмотрены с использованием систем искусственного интеллекта. Ими в частности предлагается исключить использование систем искусственного интеллекта из рассмотрения уголовных, семейные дел, дел о возмещении морального вреда [3].

Однако полагаем, что независимо от формы судопроизводства, составными элементами такого охранительного механизма должны стать нравственные принципы при отправлении правосудия с использованием систем искусственного интеллекта или принципы-приоритеты, главным назначением которых должно стать обеспечение безопасности участников судопроизводства.

ПРИНЦИПЫ-ПРИОРИТЕТЫ

КАК ЭЛЕМЕНТ ОХРАНИТЕЛЬНОГО МЕХАНИЗМА

Обращаясь к зарубежному опыту внедрения систем искусственного интеллекта в судопроизводства, хотелось бы остановиться на охранительных механизмах, предложенных законодателем Китайской народной республики.

В «Пояснение Верховного народного суда КНР по регулированию и усилению судебного применения искусственного интеллекта» от 9 декабря 2022 г. были представлены пять принципов использования искусственного интеллекта в судопроизводстве, в которых были отражены законодательные и этические основы такого использования. Среди данных принципов законодателем были выделены следующие: безопасность и законность; честность и справедливость; принцип вспомогательной роли искусственного интеллекта в судопроизводстве; принцип прозрачности и достоверности; принцип общественного порядка и общественной морали [5].

Данный опыт КНР следует перенять и нам при подготовке нашей судебной системы к использованию систем искусственного интеллекта. Думается, что принципы-приоритеты не только могут стать этической основой, но позволят сформировать новую этику правосудия с использованием систем искусственного интеллекта независимо от форм судопроизводства. В статье «Перспективы, опасности и риски использования искусственного интеллекта при осуществлении судопроизводства», опубликованной в журнале «Лоббирование в законодательстве» [8: 44-49] мною уже ставился вопрос о таких принципах-приоритетах.

Среди них были выделены следующие: • приоритет человеческих ценностей (прав, свобод и законных интересов);

Волосова Н.Ю.

• приоритет мнения участников судопроизводства относительно используемой формы судопроизводства (имеется ввиду право выбора рассмотрения дела с помощью систем искусственного интеллекта или человеком);

• приоритет пересмотра судебных решений, принятых искусственным интеллектом, человеком.

Данное предложение основано на следующем:

1) наличие субъективных факторов, которые помешают судье-человеку в полной мере осуществить контроль за машиной (усталость, ненадлежащее исполнение своих служебных обязанностей и др.);

2) такой объективный фактор как сбой программы, который в совокупности с субъективными факторами не позволит вынести законное и обоснованное решение;

3) разработка алгоритма работы с системами искусственного интеллекта, который как мы предполагаем должен иметь несколько уровней контроля: нижний и верхний.

Нижний уровень - это проверка работы самой системой; верхний уровень - это проверка судьей-человеком предложенных вариантов или варианта решения.

Обращаясь к опыту китайских коллег, хотелось бы отметить, что несмотря на то, что «умный суд SoS (System of Systems, система систем) теперь подключается к столу каждого работающего судьи по всей стране», и как указывает директор информационного центра Верховного суда Китая Сюй Цзян Фэна, данная система сегодня: рекомендует применять законодательство при рассмотрении конкретного случая; разрабатывает юридическую аргументацию; исправляет предполагаемые человеческие ошибки в судебном акте [6]. Однако, как отмечают китайские правоведы, искусственный интеллект не всегда способен точно применять нормы права к конкретным случаям из-за сложности выбора в случае конфликта норм. Китайский опыт показывает, что судьи не всегда согласны с предлагаемым искусственным интеллектом решением [5].

Как справедливо отмечает в своем исследовании М.Х. Бадмаева «требования, обеспечивающие исключение возможной предвзятости и дискриминации человека со стороны ИИ, а также гарантирующих самостоятельность, независимость человека в принятии решений» являются ключевыми в использовании систем искусственного интеллекта для нужд судопроизводства [4].

В связи чем мной и предложены принципы-приоритеты по всей категории дел, которые могут рассма-

ЛИТЕРАТУРА

1. А киберсудьи кто? URL: https://www.techinsider.ru/ technologies/1610793-a-kibersudi-kto-mojet-li-iskusstvennyi-intellekt-vershit-pravosudie-i-pered-kem-sami-roboty-budut-otvechat-pered-sudom/

2. Артамонов В А., Артамонова Е.В. Искусственный интеллект в системах безопасности // Защита информации. Инсайд. 2022. №5. С. 2-11.

3. Анисимова A.C., Спиридонова М.П. К вопросу о возможностях использования технологий искусственного интеллекта в правосудии // Юридический вестник Дагестанского государственного университета. 2021. № 3. URL: https:// cyberleninka.ru/article/n/k-voprosu-o-vozmozhnostyah-ispolzovaniya-tehnologiy-iskusstvennogo-intellekta-v-pravosudii (дата обращения: 29.05.2023).

триваться судами с использованием систем искусственного интеллекта. Это является вполне здравым подходом, который позволит избежать и в настоящем, и в будущем негативных последствий для человека. Уровень развития искусственного интеллекта, каким бы он ни был, должен быть всегда под контролем человека, чего мы и достигнем, введя принципы-приоритеты.

А как раскрывается в принципе «вспомогательная роль искусственного интеллекта» в судопроизводстве в Китае, независимо от уровня развития технологии искусственного интеллекта он не может полностью заменить судью при вынесении окончательного решения. Все участники судебного процесса имеют право выбора: использовать помощь, предоставляемую технологией искусственного интеллекта, или в любое время отказаться от взаимодействия с продуктами и услугами искусственного интеллекта [5].

Нельзя бездумно вести людей к сложным судьбоносным решениям, не объясняя их гипотетические последствия. Где-то, возможно, уместно будет «притормозить» и дать, например, человеку возможность выбора, оформив его как «право на добровольный осознанный отказ от цифровых технологий» и сохранив возможность делать что-либо «по старинке» [1]. Ис этим нельзя не согласиться. Именно человек должен определять для себя возможность рассмотрения его дела судьей-человеком или с использованием систем искусственного интеллекта.

А постулат непричинение вреда человеку должен стать центральным, ведущим во всей совокупности правил и норм взаимодействии человека и искусственного интеллекта [4].

ЗАКЛЮЧЕНИЕ

Принципы-приоритеты - это те охранительные механизмы, которые уже на начальном этапе использования искусственного интеллекта в судопроизводстве позволят обезопасить участников процесса, сформировать новую этику правосудия и решить многие этические проблемы, связанные с использованием новых технологий.

Полагаем, что данные принципы могут значительно упростить работу правоприменителей в процессе использования систем искусственного интеллекта в судопроизводстве, а сам процесс сделать понятным, безопасным и подконтрольным человеку.

REFERENCES

1. And who are the cyber judges? URL: https://www.techinsider.ru/ technologies/1610793-a-kibersudi-kto-mojet-li-iskusstvennyi-intellekt-vershit-pravosudie-i-pered-kem-sami-roboty-budut-otvechat-pered-sudom/

2. Artamonov VA., Artamonova E.V. Artificial intelligence in security systems. Information Protection. Insider. 2022. No. 5. Pp. 2-11. (In Rus.)

3. Anisimova A.S., Spiridonova M.P. On the question of the possibilities of using artificial intelligence technologies in justice. Legal Bulletin of Dagestan State University. 2021. No. 3. (In Rus.) URL: https://cyberleninka.ru/article/n/k-voprosu-o-vozmozhnostyah-ispolzovaniya-tehnologiy-iskusstvennogo-intellekta-v-pravosudii (data of accesses: 29.05.2023).

4. БадмаеваМ.Х. Социально-философские проблемы и принципы применения систем искусственного интеллекта: дис.... канд. филос. наук. Улан-Удэ, 2023. С. 189-190.

5. Бальчиндоржиева О.Б., Мяханова А.Н., Сапкеев Д.В. Фило-софско-правовые и этические аспекты организации «Умного суда»: китайский опыт//Вестник Бурятского государ-ственногоуниверситета. 2023. № 3. С. 70-76.

6. Бот судья: чем грозит применение искусственного интеллекта в судах. URL: https://www.forbes.ru/mneniya/484998-bot-sud-a-cem-grozit-primenenie-iskusstvennogo-intellekta-v-sudah

7. Bostrom N. Superintelligence: Paths, dangers, strategies. Oxford University Press, 2014. 352 p.

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

8. Волосова Н.Ю. Перспективы, опасности и риски использования искусственного интеллекта при осуществлении судопроизводства//Лоббирование в законодательстве. 2023. № 1.С. 44-49.

9. Европейская этическая хартия об использовании искусственного интеллекта в судебных системах и окружающих их реалиях Принята на 31-м пленарном заседании ЕКЭП (Страсбург, 3-4 декабря 2018 г.). URL: https://rm.coe.int/ ru-ethical-charter-en-version-17-12-2018-mdl-06092019-2-/16809860f4 (дата обращения: 19.09.2023).

10. Журавлева М.Д. К вопросу о внедрении и использовании систем искусственного интеллекта в гражданском судопроизводстве // Гуманитарные и политико-правовые исследования. 2021. № 1 (12). URL: https:// cyberleninka.ru/article/n/k-voprosu-o-vnedrenii-i-ispolzovanii-sistem-iskusstvennogo-intellekta-v-grazhdanskom-sudoproizvodstve (дата обращения: 14.10.2023).

11. Суды планируют подключить искусственный интеллект к составлению решений. URL: https://rg.ru/2023/05/25/ robot-pomozhet-rassudit.html

12. Хуноян A.C. Моделирование применения технологии искусственного интеллекта в судебной системе // Правовая информатика. 2022. № 4. URL: https://cyberleninka. ru/article/n/modelirovanie-primeneniya-tehnologii-iskusstvennogo-intellekta-v-sudebnoy-sisteme (дата обращения: 03.06.2023).

13. Чем различаются слабый, сильный и супер-ИИ. URL: https://rb.ru/story/narrow-general-super-ai/

14. 9 проблем машинного обучения. URL: https://www. kaspersky.ru/blog/machine-learning-ten-challenges/21193/

4. Badmaeva M.H. Socio-philosophical problems and principles of application of artificial intelligence systems: Dis.... of Cand. Sci. (Philol.). Ulan-Ude, 2023. Pp. 189-190.

5. Balchindorzhieva O.B., Myakhanova A.N., Sapkeev D.V. Philosophical, legal and ethical aspects of the organization of the "Smart court": Chinese experience. Bulletin of the Buryat State University. 2023. No. 3. Pp. 70-76. (In Rus.)

6. Bot judge: What is the threat of using artificial intelligence in courts. URL: https://www.forbes.ru/mneniya/484998-bot-sud-a-cem-grozit-primenenie-iskusstvennogo-intellekta-v-sudah

7. Bostrom N. Superintelligence: Paths, dangers, strategies. Oxford University Press 2014. 352 p.

8. Volosova N.Yu. Prospects, dangers and risks of using artificial intelligence in the conduct of legal proceedings. Lobbying in Legislation. 2023. No. 1. Pp. 44-49. (In Rus.)

9. The European Ethical Charter on the Use of Artificial Intelligence in Judicial Systems and the Realities surrounding them was adopted at the 31st plenary session of the ECEP (Strasbourg, December 3-4, 2018). URL: https://rm.coe.int/ ru-ethical-charter-en-version-17-12-2018-mdl-06092019-2-/16809860f4 (data ofaccesses: 19.09.2023).

10. Zhuravleva M.D. On the issue of the introduction and use of artificial intelligence systems in civil proceedings. Humanitarian and Political-Legal Studies. 2021. No. 1 (12). (In Rus.) URL: https://cyberleninka.ru/article/n/k-voprosu-o-vnedrenii-i-ispolzovanii-sistem-iskusstvennogo-intellekta-v-grazhdanskom-sudoproizvodstve (data of accesses: 14.10.2023).

11. The courts plan to connect artificial intelligence to the drafting of decisions. URL: https://rg.ru/2023/05/25/robot-pomozhet-rassudit.html

12. Hunoyan A.S. Modeling the application of artificial intelligence technology in the judicial system. Legal Informatics. 2022. No. 4. (In Rus.) URL: https://cyberleninka.ru/article/n/ modelirovanie-primeneniya-tehnologii-iskusstvennogo-intellekta-v-sudebnoy-sisteme (data of accesses: 03.06.2023).

13. What is the difference between weak, strong and super-AI. URL: https://rb.ru/story/narrow-general-super-ai/

14. 9 problems of machine learning. URL: https://www.kaspersky. ru/blog/machine-learning-ten-challenges/21193/

Статья проверена программой Антиплагиат. Оригинальность - 81,01%

Статья поступила в редакцию 29.10.2023, принята к публикации 26.11.2023 The article was received on 29.10.2023, accepted for publication 26.11.2023

СВЕДЕНИЯ ОБ АВТОРЕ

Волосова Нонна Юрьевна, доктор юридических наук, доцент; заведующая кафедрой уголовного права; Оренбургский государственный университет; г. Оренбург, Российская Федерация. ORCID: 0000-0003-3254-948Х; Author ID: 56705602800; E-mail: vasilii_vasiliev@ rambler.ru

ABOUT THE AUTHOR

Nonna Yu. Volosova, Doctor of Law, Associate Professor; Head of the Department of Criminal Law; Orenburg State University; Orenburg, Russian Federation. ORCID: 0000-0003-3254-948X; Author ID: 56705602800; E-mail: [email protected]

i Надоели баннеры? Вы всегда можете отключить рекламу.