Научная статья на тему 'К вопросу об административной ответственности в сфере искусственного интеллекта'

К вопросу об административной ответственности в сфере искусственного интеллекта Текст научной статьи по специальности «Право»

CC BY
46
8
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
искусственный интеллект / правонарушение / административная ответственность / юридическая ответственность / высокоавтоматизированное транспортное средство / автономность / автоматизация / artificial intelligence / offense / administrative responsibility / legal responsibility / highly automated vehicle / autonomy / automation

Аннотация научной статьи по праву, автор научной работы — Литвин Илья Ильич

В статье рассматривается вопрос проработки механизма административной ответственности за причинение вреда с использованием систем искусственного интеллекта. Установлено, что в действующих нормативных правовых актах и юридической доктрине преимущественно рассматриваются последствия причинения вреда действиями систем под управлением искусственным интеллектом через призму гражданскоправовой или уголовной ответственности. В том числе не урегулирован вопрос административной ответственности в рамках экспериментального правового режима в сфере цифровых инноваций по предоставлению транспортных услуг с использованием высокоавтоматизированных транспортных средств на территориях отдельных субъектов Российской Федерации. Автор пришел к выводу о необходимости разработки административно-правового механизма привлечения к ответственности за вред, причиненный искусственным интеллектом, лиц, непосредственно повлиявших на достижение неблагоприятного последствия.

i Надоели баннеры? Вы всегда можете отключить рекламу.

Похожие темы научных работ по праву , автор научной работы — Литвин Илья Ильич

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

On the issue of administrative responsibility in the field of artificial intelligence

The article discusses the issue of developing a mechanism of administrative liability for causing harm using artificial intelligence systems. It has been established that the current regulatory legal acts and legal doctrine primarily consider the consequences of harm caused by the actions of systems controlled by artificial intelligence through the prism of civil or criminal liability. In particular, the issue of administrative liability has not been resolved within the framework of the experimental legal regime in the field of digital innovations for the provision of transport services using highly automated vehicles in the territories of certain constituent entities of the Russian Federation. The author came to the conclusion that it is necessary to develop an administrative-legal mechanism for holding a person who directly influenced the achievement of an adverse consequence to liability for harm caused by artificial intelligence.

Текст научной работы на тему «К вопросу об административной ответственности в сфере искусственного интеллекта»

актуальные проблемы административного права и процесса

Научная статья

УДК 343.92

К вопросу об административной ответственности в сфере искусственного интеллекта

Литвин Илья Ильич

Уральский юридический институт МВД России, Екатеринбург, Россия, [email protected]

Аннотация. В статье рассматривается вопрос проработки механизма административной ответственности за причинение вреда с использованием систем искусственного интеллекта. Установлено, что в действующих нормативных правовых актах и юридической доктрине преимущественно рассматриваются последствия причинения вреда действиями систем под управлением искусственным интеллектом через призму гражданско-правовой или уголовной ответственности. В том числе не урегулирован вопрос административной ответственности в рамках экспериментального правового режима в сфере цифровых инноваций по предоставлению транспортных услуг с использованием высокоавтоматизированных транспортных средств на территориях отдельных субъектов Российской Федерации. Автор пришел к выводу о необходимости разработки административно-правового механизма привлечения к ответственности за вред, причиненный искусственным интеллектом, лиц, непосредственно повлиявших на достижение неблагоприятного последствия.

Ключевые слова: искусственный интеллект, правонарушение, административная ответственность, юридическая ответственность, высокоавтоматизированное транспортное средство, автономность, автоматизация

Для цитирования: Литвин И. И. К вопросу об административной ответственности в сфере искусственного интеллекта // Вестник Уральского юридического института МВД России. 2024. № 2. С. 28-32.

Original article

On the issue of administrative responsibility in the field of artificial intelligence

Litvin Il'ya I.

Ural Law Institute of the Ministry of the Interior of Russia, Yekaterinburg, Russia, [email protected]

Abstract. The article discusses the issue of developing a mechanism of administrative liability for causing harm using artificial intelligence systems. It has been established that the current regulatory legal acts and legal doctrine primarily consider the consequences of harm caused by the actions of systems controlled by artificial intelligence through the prism of civil or criminal liability. In particular, the issue of administrative liability has not been resolved within the framework of the experimental legal regime in the field of digital innovations for the provision of transport services using highly automated vehicles in the territories of certain constituent entities of the Russian Federation. The author came to the conclusion that it is necessary to develop an administrative-legal mechanism for holding a person who directly influenced the achievement of an adverse consequence to liability for harm caused by artificial intelligence.

Keywords: artificial intelligence, offense, administrative responsibility, legal responsibility, highly automated vehicle, autonomy, automation

© Литвин И.И., 2024

For citation: Litvin I. I. On the issue of administrative responsibility in the field of artificial intelligence // Bulletin of the Ural Law Institute of the Ministry of the Interior of Russia. 2024. № 2. Pp. 28-32.

Распространение технологий искусственного интеллекта неизбежно влияет на существующие общественные отношения и приводит к возникновению новых, ранее не свойственных нашему обществу, что в свою очередь обуславливает необходимость их правового регулирования. В соответствии с Концепцией развития регулирования отношений в сфере технологий искусственного интеллекта и робототехники, утвержденной Правительством Российской Федерации, одной из концептуальных проблем регулирования технологий искусственного интеллекта является вопрос ответственности за причинение вреда с использованием систем искусственного интеллекта и робототехники1.

Относительно данной проблемы в Концепции указано, что реальный уровень развития искусственного интеллекта не предполагает кардинальных изменений в регулировании института юридической ответственности, однако требует постепенной доработки его отдельных элементов. В частности, необходимо доработать механизмы гражданско-правовой, уголовной и административной ответственности.

В юридической литературе также уделяется особое внимание возможности причинения вреда действиями искусственного интеллекта и последующей юридической ответственности за этот вред. Однако большинство авторов рассматривают последствия такого вреда только через призму гражданско-правовой или уголовной ответственности. Например, широко известны случаи причинения вреда в результате функционирования высокоавтоматизированных транспортных средств (беспилотного автотранспорта, роботакси). Одним из последних является инцидент 6 февраля 2024 г. в Сан-Франциско (США), в результате которого автомобиль компании Waymo сбил велосипедиста. До этого в средствах массовой информации активно обсуждались факты дорожно-транспортных происшествий со смертельным исходом. Анализируя подобные ситуации, в литературе ответственность за причинение вреда жизни и здоровью человека рассматривается в рамках уголовного права, а обязанность возмещения причиненного вреда здоровью человека или его имуществу - в рамках гражданского права. Однако совершенно не учитывается, что в большинстве случаев данные факты вызваны нарушением правил дорожного движения, за что предусмотрена административная ответственность. Да и за нарушение, повлекшее причинение легкого или средней тяжести вреда здоровью потерпевшего, ст. 12.24 КоАП РФ также предусмотрена административная ответственность.

1 Распоряжение Правительства РФ от 19 августа 2020 г. № 2129-р «Об утверждении Концепции развития регулирования отношений в сфере технологий искусственного интеллекта и робототехники до 2024 г.» // Собрание законодательства РФ. 2020. № 35. С. 5593.

Если обратиться к правовым актам, регулирующим в Российской Федерации экспериментальный правовой режим в сфере высокоавтоматизированных транспортных средств, то очевидно, что регламентируется только юридическая ответственность за вред жизни и здоровью или имуществу других лиц в результате дорожно-транспортного происшествия2. В частности, эта ответственность разграничивается между водителем-испытателем, оператором и единоличным исполнительным органом субъекта экспериментального правового режима и (или) лицом, ответственным за техническое состояние высокоавтоматизированного транспортного средства. При этом особенности привлечения к ответственности за совершение административных правонарушений с использованием высокоавтоматизированных транспортных средств не предусмотрены.

Между тем в сфере безопасности дорожного движения именно административные являются наиболее распространенными видами правонарушений. Статистические данные показывают, что всего в 2023 г. в России зарегистрировано 1 947 161 преступлений, из них 17 865 связанно с нарушением правил дорожного движения и эксплуатации транспортных средств3. В то же время дел об административных правонарушениях, находящихся в компетенции органов внутренних дел, возбуждено 247,9 млн, из которых 240,1 млн в сфере безопасности дорожного движения [1, с. 6]. Статистика правонарушений, совершенных в результате эксплуатации высокоавтоматизированных транспортных средств, отсутствует. В случае если правонарушение зафиксировано специальными техническими средствами, работающими в автоматическом режиме и имеющими функцию фотосъемки, оно попадает в указанные выше данные среди дел об административных правонарушениях, возбужденных в отношении собственников транспортных средств. В этой связи следует согласиться с тем, что назрела необходимость разработки положений о юридической ответственности за правонарушения, допущенные в результате функционирования высокоавтоматизированных транспортных средств, которые должны содержаться в нормах административного законодательства [2, с. 17].

Более того, указанные положения о юридической ответственности в сфере искусственного интеллекта

2 Постановление Правительства РФ от 9 марта 2022 г. № 309 «Об установлении экспериментального правового режима в сфере цифровых инноваций и утверждении Программы экспериментального правового режима в сфере цифровых инноваций по эксплуатации высокоавтоматизированных транспортных средств» // Собрание законодательная РФ. 2022. № 12. С. 1817.

3 Краткая характеристика состояния преступности в Российской Федерации за январь - декабрь 2023 г. 1^1.: ИПрБ:// мвд.рф.

не должны затрагивать только область безопасности дорожного движения. Технологии искусственного интеллекта активно применяются и в других направлениях деятельности. Наиболее латентными в этой связи представляются правонарушения в сфере обработки персональных данных (ответственность за них предусмотрена ст. 13.11 КоАП РФ). Однако действующее законодательство в области защиты персональных данных имеет ряд пробелов, связанных с обеспечением конфиденциальности, в связи с чем привлечение к административной ответственности субъектов, использующих искусственный интеллект для противоправной обработки персональных данных, затруднено. При этом о фактах сбора и обработки персональных данных и «Больших данных» с помощью автоматизированных систем упоминалось не раз [3, с. 104].

В этой связи следует обратить внимание на мнение И. А. Зырянова о необходимости регулирования проблем и рисков, возникающих в связи с использованием искусственного интеллекта, путем принятия специального Федерального конституционного закона «Об искусственном интеллекте» и последующего внесения изменений в КоАП РФ. В частности, введение новых составов правонарушений (и дополнение действующих) как за деяния, совершенные искусственным интеллектом или с его помощью, так и в связи с защитой цифровых прав человека, сопряженных с искусственным интеллектом, в отношении разработчиков, производителей, собственников, владельцев, продавцов и третьих лиц [4, с. 53-58]. Помимо этого, потребуется внесение изменений в процессуальную составляющую производства по делам об административных правонарушениях для совершенствования мер процессуального обеспечения, а также расширения возможностей по сбору, проверке и оценке доказательств.

Внесение подобных изменений в КоАП РФ требует существенной теоретической аргументации и решения фундаментальных вопросов, касающихся юридической ответственности за вред, причиненный вследствие действий искусственного интеллекта, например, кто будет нести ответственность.

В этой связи следует обратиться к диссертационному исследованию П. В. Морхата, который выделяет следующие модели определения ответственности за действия искусственного интеллекта, повлекшие за собой наступление вредных последствий:

- модель инструмента реального актора;

- модель естественных вероятных последствий;

- модель прямой ответственности непосредственного юнита искусственного интеллекта за его действия (бездействия);

- модель квази-субститутивной ответственности [5, с. 252].

Первая модель предполагает закрепление ответственности за лицом, использующим искусственный интеллект, вторая - за лицом, создавшим искусственный интеллект (изобретателем, разработчиком, про-

граммистом, тренером). В рамках третьей модели предлагается предоставить искусственному интеллекту правосубъектность и способность самостоятельно нести ответственность. Четвертая модель предусматривает ответственность владельца искусственного интеллекта за неспособность предотвратить неблагоприятные последствия.

Остановиться следует на первом варианте, как на наиболее распространенном в юридической литературе и наиболее соответствующем действующему механизму юридической ответственности. В рамках данной модели искусственный интеллект воспринимается как инструмент, а следовательно, юридическую ответственность должен нести человек, который его использовал. Проблема только в том, что искусственный интеллект в определенной мере способен действовать автономно, то есть независимо от воли использующего его лица. Например, пассажир высокоавтоматизированного транспортного средства указывает место прибытия или выбирает маршрут движения, но не имеет возможности управлять транспортным средством во время движения, т. е. не может изменить скорость его движения или местоположение при изменении дорожной ситуации.

В зависимости от уровня автономности искусственный интеллект принято делить на «сильный» и «слабый». Последний является наиболее распространенным в настоящее время и ограничен кругом задач, на решение которых запрограммирован. «Сильный» же способен адаптироваться к измененным условиям и решать задачи, на которые изначально не запрограммирован [6, с. 13]. В настоящее время отсутствует общепризнанный «сильный» искусственный интеллект, а, следовательно, большинство авторов приходит к мнению, что его деятельность имеет строго определенный алгоритм, другими словами, детально регламентирована. И из этого следует, что ошибки в деятельности искусственного интеллекта зачастую связаны именно с несовершенством алгоритма.

При этом с технической стороны алгоритм действий искусственного интеллекта не может быть детально регламентирован. Именно возможность автономного принятия решения позволяет отграничить «слабый» искусственный интеллект от компьютерной программы. По этой же причине разработчики не всегда способны объяснить принятое искусственным интеллектом решение, которое зачастую основывается на анализе ранее принятых решений, указанных в качестве эталонных при обучении. Указанный подход обучения искусственного интеллекта не требует явного определения всех правил и логики и способствует автоматическому извлечению сложных закономерностей из данных [7, с. 81]. С точки зрения права это приводит к отсутствию прозрачности алгоритма деятельности искусственного интеллекта, что в науке именуется проблемой «черного ящика». Однако это не отменяет возможности влияния на действия искусственного интеллекта как со стороны его создателя, так и со стороны владельца (пользователя), что долж-

но обязательно учитываться при решении вопроса об ответственности.

Подобный подход прослеживается и в нормативных документах Европейского союза, согласно которым искусственный интеллект не может нести ответственность сам по себе, поскольку его действия или бездействие зависят от оператора или владельца [8, с. 43]. То есть ответственность за вред, причиненный в результате функционирования искусственного интеллекта, должна быть распределена между лицами, имеющими возможность влиять на его действия.

В то же время отсутствие прозрачного алгоритма принятия решений искусственным интеллектом вызывает недоверие к подобным системам, в том числе возникают опасения относительно возможности внесения изменений в свой код им самим. Указанные подозрения усиливаются существующими данными о склонности искусственного интеллекта к применению обмана человека с целью достижения поставленных задач.

Однако представляется, что наличие нежелательных методов деятельности искусственного интеллекта все же связанно с отсутствием надлежащего алгоритма его деятельности, следовательно, и с проблемами программного кода. В этой связи модель инструмента реального актора в очередной раз представляется наиболее подходящей для разрешения вопроса об ответственности за действия искусственного интеллекта и наиболее сочетаемой с презумпцией невиновности.

В административно-юрисдикционной деятельности существует отступление от презумпции невиновности, касающееся фиксации правонарушения специальными техническими средствами, работающими в автоматическом режиме и имеющими функцию фотосъемки. Указанное правило распространяется на собственников транспортных средств.

Прогнозируемое распространение искусственного интеллекта приведет к тому, что результаты его деятельности будут исчисляться миллионами юридических фактов в день. При этом разрешение вопроса об ответственности по рассмотренной выше модели требует наличия специальных знаний о функционировании искусственного интеллекта и возможности влияния на него. Только после изучения алгоритма действий искусственного интеллекта будет понятно, кто повлиял на его действия - создатель или пользователь. Процесс же доказывания виновности будет возлагаться на органы административной юрисдикции, что осложнит их деятельность, а также реализацию принципа неотвратимости наказания.

Представляется необходимым, выработать такой механизм административной ответственности, который будет учитывать специфику правоотношений в сфере искусственного интеллекта, в том числе и тот факт, что на данный момент все субъекты, использующие его, согласно требованиям экспериментальных правовых режимов проходят соответствующую регистрацию в виде включения в реестр участников

экспериментального правового режима1. В этой связи представляется разумным определение данных субъектов в качестве лиц, несущих юридическую ответственность за совершенные искусственным интеллектом административные правонарушения. Тем более, что в условиях правовой неопределенности данного вопроса субъекты, участвующие в экспериментальном правовом режиме в сфере цифровых инноваций по предоставлению транспортных услуг с использованием высокоавтоматизированных транспортных средств, фактически уже несут юридическую ответственность за правонарушения, зафиксированные в автоматическом режиме, как собственники транспортных средств.

Таким образом, несмотря на относительную автономность деятельности искусственного интеллекта, его необходимо воспринимать как инструмент, а ответственность за вред, причиненный искусственным интеллектом, должно нести лицо, повлиявшее на достижение неблагоприятного последствия (создатель или пользователь). При этом должен быть выработан административно-правовой механизм, позволяющий установить автоматическую ответственность за вред, причиненный указанным лицом, с возможностью оспаривания данного решения в результате предоставления подтвердившихся сведений о виновности другого лица (ч. 1 ст. 2.6.1 КоАП РФ).

Кроме того, необходимо учитывать, что в настоящий момент существует общий порядок привлечения к административной ответственности, а специальные правовые режимы, установленные в целях проведения правового эксперимента по внедрению искусственного интеллекта, не регламентируют этот вопрос. Прослеживаемая в нормативных актах логика позволяет прийти к выводу, что правовое регулирование осуществляется в рамках ситуационного подхода, а не общего, устанавливая отдельные направления применения искусственного интеллекта и ответственности в конкретных случаях. Так, например, вышеуказанным постановлением Правительства РФ установлена ответственность водителя-испытателя и оператора за вред, причиненный в результате функционирования высокоавтоматизированных транспортных средств. В других случаях будет предусмотрена ответственность иных лиц за вред, причиненный действиями искусственного интеллекта. В связи с этим также обнажается проблема существующего определения искусственного интеллекта, которое не позволяет полноценно идентифицировать его в целях дифференциации ответственности, а также не позволяет разграничить искусственный интеллект,

1 Федеральный закон от 24 апреля 2020 г. № 123-ФЗ «О проведении эксперимента по установлению специального регулирования в целях создания необходимых условий для разработки и внедрения технологий искусственного интеллекта в субъекте Российской Федерации - городе федерального значения Москве и внесении изменений в ст. 6 и 10 Федерального закона «О персональных данных»» / Российская газета. 2020. № 92.

действующий автономно, и программный продукт с определенным набором алгоритмов поведения.

Библиографический список

1. Баканов К. С., Ляхов П. В., Исаев М. М. и др. Правоприменительная деятельность в области безопасности дорожного движения в 2023 г.: информационно-аналитический обзор. М.: ФКУ «НЦ БДД МВД России», 2024. 120 с.

2. Королева Е. Г. Правовое регулирование использования беспилотных транспортных средств в Российской Федерации // NB: Административное право и практика администрирования. 2024. № 1. С. 13-22.

3. Литвин И. И. Системный характер преобразования государства и права в процессе цифровизации // Вестник Уральского юридического института МВД России. 2023. № 2 (38). С. 103-108.

4. Зырянов И. А. К вопросу о введении киберответ-ственности искусственного интеллекта // Конституционное и муниципальное право. 2023. № 5. С. 53-58.

5. Морхат П. В. Правосубъектность искусственного интеллекта в сфере права интеллектуальной собственности: гражданско-правовые проблемы: дис. ... д-ра. юрид. наук. М., 2018. 420 с.

6. Михеева С. Н., Литвин И. И. Правовая природа категории «искусственный интеллект»: монография. Екатеринбург: Уральский юридический ин-т МВД России, 2022. 90 с.

7. Мамедова Л. Э. Г., Иванова Л. Н., Алтаев Е. С. Основные аспекты технологии искусственного интеллекта // Известия вузов. ЭФиУП. 2023. № 3 (57). С. 78-88.

8. Крупнова Т. Б. Проблемы обеспечения и защиты свободы волеизъявления субъекта правотворчества в эпоху цифровых трансформаций и искусственного интеллекта // Московский юридический журнал. 2022. № 1. С. 39-49.

References

1. Bakanov K. S., Lyakhov P. V., Isaev M. M. and others. Law enforcement activities in the field of road safety in 2023: information and analytical review. M.: FKU «NC Road Traffic Safety Center of the Ministry of Internal Affairs of Russia», 2024. 120 p.

2. Koroleva E. G. Legal regulation of the use of unmanned vehicles in the Russian Federation // NB: Administrative law and administration practice. 2024. No. 1. Pp. 13-22.

3. Litvin I. I. The systemic nature of the transformation of state and law in the process of digitalization // Bulletin of the Ural Law Institute of the Ministry of Internal Affairs of Russia. 2023. No. 2 (38). Pp. 103-108.

4. Zyryanov I. A. On the issue of introducing cyber liability for artificial intelligence // Constitutional and municipal law. 2023. No. 5. Pp. 53-58.

5. Morkhat P. V. Legal personality of artificial intelligence in the field of intellectual property law: civil legal problems: dis. ... dr. legal sci. M., 2018. 420 p.

6. Mikheeva S. N., Litvin I. I. Legal nature of the category «artificial intelligence»: monograph. Yekaterinburg: Ural Legal Institute of the Ministry of Internal Affairs of Russia, 2022. 90 p.

7. Mamedova L. E. G., Ivanova L. N., Altaev E. S. Main aspects of artificial intelligence technology // Izvestia of Universities. EFIUP. 2023. No. 3 (57). Pp. 78-88.

8. Krupnova T. B. Problems of ensuring and protecting the freedom of expression of the subject of lawmaking in the era of digital transformations and artificial intelligence // Moscow Legal Journal. 2022. No. 1. Pp. 39-49.

Информация об авторе

Литвин Илья Ильич - кандидат юридических наук

Information about the author

Litvin Il'ya I. - Candidate of Law

Статья поступила в редакцию 06.05.2024; одобрена после рецензирования 13.05.2024; принята к публикации 21.05.2024

The article was submitted 06.05.2024; approved after reviewing 13.05.2024; accepted for publication 21.05.2024

i Надоели баннеры? Вы всегда можете отключить рекламу.