382
ВЕСТНИК УДМУРТСКОГО УНИВЕРСИТЕТА
УДК 343 Г.Г. Камалова
НЕКОТОРЫЕ ВОПРОСЫ УГОЛОВНО-ПРАВОВОЙ ОТВЕТСТВЕННОСТИ В СФЕРЕ ПРИМЕНЕНИЯ СИСТЕМ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА И РОБОТОТЕХНИКИ1
В статье рассматриваются проблемы совершенствования уголовного законодательства в контексте развития одного из видов прорывных цифровых технологий - искусственного интеллекта. Автор отмечает, что взрывное развитие в этой сфере привело к росту высокотехнологичной преступности, особое место в которой занимают преступления с использованием инструментария технологии искусственного интеллекта. Поскольку субъекты преступной деятельности традиционно используют передовые технологии, в настоящее время подобные преступления уже представлены мошенничеством, преступлениями в сфере компьютерной информации, терроризмом, нарушениями в сфере обеспечения безопасности дорожного движения, нарушением права на неприкосновенность частной жизни и рядом других. Хотя сегодня в уголовном законодательстве отсутствуют специальные составы преступлений, связанные с искусственным интеллектом, это не означает, что к традиционным субъектам не могут быть применены существующие нормы. C учетом современного уровня развития технологии искусственного интеллекта в настоящее время необходимо усиление уголовной ответственности по составам, предусмотренным действующим Уголовным кодексом РФ, путем введения соответствующего квалифицирующего признака. При признании правосубъектности систем искусственного интеллекта и роботов одним из ключевых вопросов применения к ним норм уголовно-правовой ответственности станет вопрос о субъективной стороне совершенного деяния. Отсутствие пока «сильного» искусственного интеллекта и современный уровень развития решений и устройств на базе технологии искусственного интеллекта позволяют ограничиться отнесением фактов их использования к составляющим объективной стороны преступлении.
Ключевые слова: юридическая ответственность, уголовная ответственность, преступление, информационная сфера, цифровые технологии, искусственный интеллект, робототехника, информационная безопасность.
DOI: 10.35634/2412-9593-2020-30-3-382-388
Преступления в информационной сфере, совершаемые с использованием новейших цифровых технологий, являются одной из значимых проблем ХХ1 в. и представляют собой угрозу национальной информационной безопасности. Революционное развитие цифровых технологий привело к росту высокотехнологичной преступности в информационной сфере, совершаемой как отдельными преступниками, так и сформировавшимися организованными преступными группами и сообществами. В этих условиях сохраняется необходимость дальнейшего совершенствования уголовного законодательства России с учетом существующей динамики общественных отношений в условиях развития информационного общества и цифровизации, в том числе в связи с тем, что использование инструментария технологии искусственного интеллекта вызывает новый, ранее не виданный рост количества угроз стабильности общества и государства. Развитие уголовного законодательства должно учитывать тенденции общественно опасных деяний. В связи с этим исследование вопросов уголовно-правовой ответственности за деяние, совершенные с использованием систем искусственного интеллекта и роботов, приобретает особое значение.
В последние несколько лет появилось множество научных статей, посвященных возможности уголовно-правовой ответственности в связи с применением систем искусственного интеллекта и робототехники. Полагаем, что это не случайно, так как уже встречаются общественно опасные деяния, связанные с использованием систем искусственного интеллекта и робототехники. Так, в конце ноября 2019 г. в сети появились данные о совершении в Великобритании преступления с помощью алгоритмов синтеза и распознавания речи. Генеральному директору компании позвонил исполнительный директор и попросил перевести венгерскому поставщику более 200 тыс. долларов. При этом, по словам генерального директора, он был уверен, что говорил со своим коллегой - он узнал голос, интонацию, манеру речи и даже акцент и даже не мог представить, что на самом деле говорил не с человеком. И только,
1 Исследование выполнено при финансовой поддержке РФФИ в рамках научного проекта № 18-29-16015 «Комплексное исследование правовых и этических аспектов, связанных с разработкой и применением систем искусственного интеллекта и робототехники».
когда искусственный интеллект снова позвонил и попросил повторить перевод, директор начал подозревать, что происходит что-то странное и обратился к службе безопасности. Преступников найти не удалось. Описанная история - отличный пример того, на что способны системы с искусственным интеллектом2. Нельзя обойти также вниманием произошедшие в конце прошлого года широкоформатные кибератаки с использованием вируса СгурШЬоскег, который распространялся при поддержке ботнета Оашеоуег 2еи8 с использованием криптографически защищенных каналов связи. Исследователи отмечают, что в основе функционирования указанной вредоносной компьютерной программы, среди прочего, лежит самообучающийся алгоритм управления, особенности которого пока не известны [2].
Все происходящее не случайно. Субъекты преступной деятельности традиционно активно реагируют на появление инноваций. Система преступной деятельности развивается, приспосабливаясь к обстоятельствам новой реальности и используя новейшие способы совершения преступлений и передовые технологии, прилагая усилия, чтобы обойти мероприятия, проводимы правоохранительными органами для предупреждения и расследования противоправных событий. Фактически система преступной деятельности и система деятельности государства по борьбе с преступностью действуют в условиях активного противоборствования на физическом и интеллектуальном уровне, где информационная составляющая является ключевой [3].
Хотя сегодня распространение искусственного интеллекта как инструментария противоправной деятельности ограничивается невысоким уровнем автоматизации процессов и ресурсоемкостью обучающих алгоритмов, продолжающееся внедрение искусственных интеллектуальных систем в различные сферы общественных отношений все более приближают реализацию негативных сценариев их применения. Сегодня распространение преступной деятельности с использованием возможностей искусственного интеллекта ограничено ввиду незначительного распространения решений и устройств, функционирующих на основе искусственного интеллекта, среди населения. Вместе с этим при повсеместном их внедрении в повседневную жизнь следует ожидать значительного увеличения проблем в этой сфере.
Уже сегодня искусственные интеллектуальные системы могут быть использованы для совершения разнообразных преступлений, включая:
- причинение смерти или вреда здоровью человека;
- нарушение права на неприкосновенность частной жизни;
- незаконное получение или неправомерное разглашение охраняемой законом тайны;
- нарушение правил охраны труда;
- мошенничество;
- нарушение безопасности дорожного движения и эксплуатации транспорта;
- террористический акт;
- нарушение правил обращения с оружием и предметами, представляющими повышенную опасность для окружающих;
- нарушение правил оборота наркотических и психотропных веществ;
- преступления в сфере компьютерной информации;
- иные.
Не ставя себе цели охватить все возможные преступления, отметим, что многочисленные примеры подготовки и совершения подобных противоправных деяний можно привести уже сейчас. Так, в настоящее время преступниками для подготовки и совершения террористических актов используются беспилотные летательные аппараты самолетного и вертолетного действия. Российскими спецслужбами выявлено несколько подобных случаев. Например, осенью 2015 г. в Ингушетии была задержана организованная преступная группа, планировавшая взорвать здания территориальных подразделений МВД и ФСБ с помощью беспилотного летательного аппарата, а 6 января 2018 г. была предпринята попытка, обезвреженная военными, атаки сирийских объектов группой беспилотных летательных аппаратов самолетного типа3.
2 Первое преступление, совершенное с применением искусственного интеллекта. 28 ноября 2019. URL: https://zen.yandex.ru/media/cyberstar/pervoe-prestuplenie-sovershennoe-s-primeneniem-iskusstvennogo-intellekta-5ddf decd5eb26800ad310215 (дата обращения: 12.04.2020).
3 Террокоптер: как бандиты с помощью дрона хотели взорвать МВД и ФСБ // РИА НОВОСТИ. URL: https://ria.ru/ 20180207/1514160209.html (дата обращения: 14.05.2020).
2020. Т. 30, вып. 3 ЭКОНОМИКА И ПРАВО
В мире существует множество примеров причинения смерти человеку в результате нарушения безопасности дорожного движения и эксплуатации транспорта. В январе 2016 г. водитель получил несовместимые с жизнью телесные повреждения в результате столкновения его автомобиля, управляемого системой автопилота, в грузовик, а весной этого же года аналогичным образом погиб водитель электромобиля во Флориде. В последнем случае расследование установило, что происшествие вызвано игнорированием водителем требования системы держаться за рулевое колесо во время управления высокоавтоматизированным автомобилем. При этом вероятной причиной происшествия, согласно проведенному расследованию, явилось то, что ни водитель, ни система автопилота на фоне яркого солнечного освещения не заметили прицеп, окрашенный в белый цвет4. 19 марта 2018 г. произошло дорожно-транспортное происшествие с беспилотным автомобилем компании Uber, сбившим насмерть пешехода в ходе использования его автономного режима5. Сегодня уже не является научной фантастикой и применение беспилотных летающих технических средств, осуществляющих целенаправленный поиск (на основе технологий распознавания лица) и убийство отдельных людей. В контексте высокоавтоматизированных транспортных средств не следует исключать также возможность дистанционного перехвата управления и иного злонамеренного вмешательства в их управление.
На современном уровне развития систем искусственного интеллекта и робототехники возможно применение технологии искусственного интеллекта для совершения преступления, предусмотренного ст. 137 Уголовного кодекса РФ6 - нарушения права на неприкосновенность частной жизни, так как системы искусственного интеллекта и роботы функционируют, собирая, аккумулируя и обрабатывая большие массивы личных данных, в том числе медицинских. Последнее особо значимо в условиях борьбы с пандемией, когда обмен подобными данными необходим в научно-исследовательских и оперативно-управленческих целях, и несанкционированный доступ к ним видится меньшим злом по сравнению с угрозой распространения вирусной инфекции. Полученные данные искусственная интеллектуальная система использует для построения информационных моделей поведения владельца или пользователя системы.
Б. Шермер выделяет следующие основные способы нарушения права на неприкосновенность частной жизни в процессе использования интеллектуальных устройств: передача собранных системой данных третьим лицам; несанкционированный сбор данных непосредственно системой [12. С. 10-11]. При этом общественная опасность нарушения неприкосновенности частной жизни усугубляется накоплением данных, собранных в традиционно закрытых для стороннего наблюдения ситуациях, так как технические средства, используемые в быту, медицинских и социальных целях, получают доступ к наиболее «чувствительным» данным [4. С. 235].
Кроме того, следует согласиться, что существует ряд ситуаций, при которых «определение юридической ответственности за действия искусственного интеллекта может быть затруднено в большей степени, в силу их сложности и специфичности». П.М. Морхат считает, что к ним относятся ответственность:
- за непринятие искусственным интеллектом мер по предотвращению убийства, если они потенциально могли быть реализованы;
- за злоупотребление искусственным интеллектом правом в судебном процессе, когда два юнита искусственного интеллекта, выступающие представителями сторон в суде, парализуют своими действиями деятельность судебной инстанции;
- за самостоятельное отключение искусственным интеллектом своих программных и аппаратных функций, блокирующих возможность причинения вреда человеку;
- за создание юнитом искусственного интеллекта по своему усмотрению робота или иного устройства, способного причинить вред человеку и предназначенного для этой цели [6. С. 32-33].
4 Китаец два года судится с Tesla из-за смерти сына // Популярная механика. URL: https://www.popmech.ru/ vehicles/412602-kitaec-dva-goda-suditsya-s-tesla-iz-za-smerti-syna/?utm_ (дата обращения: 30.04.2020); Автопилот Tesla признан невиновным в ДТП со смертельным исходом // 3DNEWS. Daily Digital Digest. https://3dnews.ru/946196 (дата обращения: 30.04.2020).
5 NYT: беспилотный автомобиль Uber насмерть сбил пешехода в США // ТАСС: Информационное агентство России. URL: http://tass.ru/proisshestviya/5046544 (дата обращения: 22.03.2018).
6 Уголовный кодекс Российской Федерации от 13.06.1996 № 63-ФЗ (ред. от 07.04.2020) // Собрание законодательства РФ. 1996. № 25. Ст. 2954.
Как справедливо отмечает И.Н. Мосечкин, сегодня в уголовном законодательстве «отсутствуют какие-либо составы преступлений, связанные с совершением общественно опасных деяний посредством использования нейронных сетей, искусственного интеллекта или самим искусственным интеллектом» [7. С. 463]. Однако это не означает, что традиционные субъекты преступной деятельности, использующие в своей деятельности перечисленные системы, не могут быть привлечены к уголовной ответственности уже в настоящее время. Так, среди исследователей практически отсутствуют сомнения применимости к деяниям с использованием искусственного интеллекта норм ст. 272-274.1 Уголовного кодекса РФ, предусматривающих уголовную ответственность за преступления в сфере компьютерной информации, а также ст. 159.6 - мошенничество в сфере компьютерной информации. При этом еще в 2018 г. исследователи Кембриджского, Оксфордского, Стэнфордского университетов, некоммерческих организаций Electronic Frontier Foundation и OpenAI и ряда иных авторитетных организаций сошлись во мнении, что распространение технологий искусственного интеллекта в ближайшие пять лет приведет к увеличению числа преступлений в сфере компьютерной информации. При этом ситуация осложнится тем, что эта технология может быть эффективно использована для хакерских атак на различные ресурсы, обнаружения уязвимостей системного и иного программного обеспечения, сбора и анализа информации о потенциальной жертве преступления. В связи с этим вероятность успешности реализации преступного замысла существенно возрастет7. Таким образом, уже сейчас существуют системы искусственного интеллекта, создаваемые с целью нанесения вреда.
Однако наличие специальных взаимосвязанных с цифровыми технологиями норм уголовного закона, предусматривающих ответственность за преступления в сфере компьютерной информации, не исключает возможность иных общественно опасных правонарушений с использованием искусственного интеллекта, что выше было продемонстрировано в контексте террористической деятельности, дорожно-транспортных происшествий и мошенничества.
Исследователи полагают, что уголовно-правовая ответственность должна быть установлена за следующие виды общественно опасных деяний, связанных с системой искусственного интеллекта или роботом:
- использование системы искусственного интеллекта или робота с целью совершения преступление (робот как орудие/предмет преступления);
- при совершении автономно действующей системой искусственного интеллекта или роботом действий, могущих быть квалифицированными в качестве преступных;
- при грубом нарушении правил эксплуатации систем искусственного интеллекта или роботов, повлекшем причинение вреда здоровью и жизни человека [11. С. 92-93].
З.И. Хисанова и И.Р. Бегишев полагают, что введение специальной уголовной ответственности в сфере применения искусственного интеллекта необходимо:
- если была допущена ошибка при создании системы искусственного интеллекта, приведшая впоследствии к событию преступления;
- при противоправном доступе к системе и ее данным, повлекшем ее модификацию;
- при принятии автономной самообучающейся системой решения о совершении преступного деяния; при создании системы искусственного интеллекта для совершения преступлений [9. С. 565].
Признавая приведенную позицию сравнительно взвешенной, следует отметить необходимость научно обоснованного подхода к регулированию рассматриваемых отношений. При этом в части введения норм уголовной ответственности за правонарушения в информационной сфере, при всей революционной динамике цифровых технологий, все же требуется некоторая осторожность. В настоящее время с учетом существующего уровня развития технологии искусственного интеллекта видится более приемлемым усиление уголовной ответственности по составам, уже предусмотренным действующим Уголовным кодексом РФ, путем введения соответствующего квалифицирующего признака. Так, авторами Модельной конвенции о робототехнике и искусственном интеллекте [8] предлагается в качестве отягчающего обстоятельства использование робота для совершения военного преступления (ст. 37), что, безусловно, следует поддержать.
Исследователи уже делают попытки прогностически смоделировать потенциальные составы потенциальных преступлений с искусственными интеллектуальными системами путем изучения их
7 Цит. по: Искусственный интеллект мыслит как преступник // Коммерсантъ. URL: https://www.kommersant.ru/ doc/3557537 (дата обращения: 30.04.2020).
возможных объективных и субъективных признаков преступлений, в том числе специфику искусственного интеллекта как субъекта преступлений [7].
Хотя наделение систем искусственного интеллекта и роботов правосубъектностью дело будущего, это представляет научный интерес и активно обсуждается отечественной и зарубежной юридической общественностью. Все больше становится сторонников формирования для роботов правового статуса «электронного лица» или «виртуального лица», разработки комплекса прав и обязанностей специфического квазисубъекта права. При этом в настоящее время следует признать справедливой позицию В.В. Архипова и В.Б. Наумова, что пока с учетом развития и внедрения достижений робототехники вопрос о правосубъектности роботов нельзя считать актуальным [1. С. 165].
В будущем же при признании правосубъектности искусственных интеллектуальных систем одним из ключевых вопросов применения норм уголовно-правовой ответственности станет вопрос о субъективной стороне совершенного деяния, отраженной в решениях такой системы. Пока системы искусственного интеллекта и роботы действуют в пределах усмотрения, целей и задач, заложенных в систему во время разработки и обучения. При этом, как справедливо отмечает И.Н. Мосечкин, обычно искусственный интеллект не стремится причинить вред, и по сути имеет место «некий аналог преступной небрежности» [7. С. 85]. Вместе с тем уже сейчас не всегда возможно спрогнозировать и оценить все возможные аспекты операций («деяний») такой системы и конкретный причиненный вред.
При признании правосубъектности искусственных интеллектуальных систем в контексте их уголовной ответственности имеется ряд проблемных аспектов. Прежде всего, наиболее острой проблемой может стать определение состава субъектов ответственности и субъективной стороны. И если в части гражданско-правовой ответственности уместны рассуждения об ответственности без вины или объективной ответственности, то в отношении уголовной ответственности это представляется весьма дискуссионным. Кроме того, правосубъектность искусственной интеллектуальной системы исследователи, как правило, предлагают формулировать по аналогии с правовым статусом юридического лица или животного, но пока в российском уголовном законодательстве не нашел применения институт уголовной ответственности юридических лиц, и поэтому применение уголовной ответственности к такому субъекту будет вдвойне сложнее. Для сравнения, в рамках уголовного законодательства США, где с XIX в. применяется уголовная ответственность в отношении юридических лиц и в настоящее время, соответственно, возможна уголовная ответственность организации за «деяния» робота или системы искусственного интеллекта, подобные идеи воспринимаются юридическим сообществом США менее скептически [10. С. 552].
Анализируя роботов в качестве «жертвы преступления» и сопоставляя правовой статус робота с правовым статусом животного, с одной стороны, следует признать справедливым вывод о том, что так как сегодня роботы, в отличии от животных, не могут испытывать страдания, то не может и быть предусмотрено юридической ответственности за негуманное обращение с роботом, а режим ответственности за причинение вреда роботу должен быть аналогичен ответственности за причинение вреда вещи [11. С. 85], а с другой - гуманное отношение к антропоморфному роботу все же требуется, так как привыкнув к возможности жестокого обращения с роботом, человек может объективизировать другого человека.
При этом, как отмечают А.И. Коробеев и А.И.Чучаев, криминализация того или иного деяния должна быть научно обоснованной и учитывать целый ряд факторов, к которым, прежде всего, относятся уровень его общественной опасности, степень распространенности, неблагоприятная динамика развития, а также возможность правового воздействия средствами уголовного права и отсутствие иных менее репрессивных средств [5. С. 25]. Отсутствие «сильного» искусственного интеллекта и современный уровень развития решений и устройств на базе технологии искусственного интеллекта пока позволяют ограничиться отнесением фактов их использования к составляющим объективной стороны преступления, что следует учитывать при продвижении существующих предложений8.
Применимые уголовно-правовые виды наказаний к «сильному» искусственному интеллекту и решениям, основанным на нем, также требуют обсуждения научным сообществом. При их выборе нужно учитывать указанное выше отсутствие у искусственного интеллекта способности испытывать чувства, включая чувство самоопределения и страдания. Поэтому многие устоявшиеся меры ответст-
8 Роботы и искусственный интеллект будут отвечать за причиненный вред // РИА НОВОСТИ. URL: https://ria.ru/20200221/1565035910.html (дата обращения: 30.04.2020).
венности представляются бессмысленными при применении в отношении устройств и решений на базе искусственного интеллекта. При этом, хотя сегодня обосновываются возможности «перевоспитания» искусственного интеллекта посредством его перепрограммирования и утилизации устройства, остается открытым вопрос о характере этих мер и их отличии от перепрограммирования обычного средства вычислительной техники и утилизации иных вещей.
Обобщая все вышерассмотренное, можно прийти к ряду выводов. В настоящее время отмечается использование технологии искусственного интеллекта при совершении мошенничества, преступлений в сфере компьютерной информации, актов терроризма, нарушений в сфере обеспечения безопасности дорожного движения, нарушений права на неприкосновенность частной жизни и иных. Пока в уголовном законодательстве отсутствуют специальные составы преступлений, связанные с использованием искусственного интеллекта, к традиционным субъектам применимы существующие нормы. В целях совершенствования уголовного законодательства в условиях цифровизации следует усилить уголовную ответственность по ряду существующих преступлений путем введения соответствующего квалифицирующего признака. При признании правосубъектности систем искусственного интеллекта и роботов одним из ключевых вопросов применения норм уголовно-правовой ответственности станет вопрос о субъективной стороне совершенного деяния.
СПИСОК ЛИТЕРАТУРЫ
1. Архипов В.В., Наумов В.Б. О некоторых вопросах теоретических оснований развития законодательства о робототехнике: аспекты воли и правосубъектности // Закон. 2017. № 5. С. 157-170.
2. Ерахтина Е.А., Тирранен В.А. Преступления, совершаемые с использованием искусственного интеллекта: проблемы квалификации и расследования // Вестник Сибир. юрид. ин-та МВД России. 2019. № 2 (35). С. 3641.
3. Камалова Г.Г. Криминалистическое содержание и сущность защиты информации в деятельности по выявлению и раскрытию преступлений: дис. ... канд. юрид. наук. Ижевск, 2002. 178 с.
4. Камалова Г. Г. Этические и правовые вопросы охраны права на неприкосновенность частной жизни при создании и использовании робототехники и систем искусственного интеллекта // Информационное пространство: обеспечение информационной безопасности и право: сб. науч. тр. / под ред. Т.А. Поляковой, В.Б. Наумова, А.В. Минбалеева. М.: ИГП РАН, 2018. С. 232-237.
5. Коробеев А.И., Чучаев А.И. Беспилотные транспортные средства: новые вызовы общественной безопасности // LEX RUSSICA. 2019. № 2 (147). С. 25.
6. Морхат П. М. Правосубъекность юнитов искусственного интеллекта и ответственность за их действия // Право и государство: теория и практика. 2017. № 11 (155). С. 32-33.
7. Мосечкин И. Н. Искусственный интеллект и уголовная ответственность: проблемы становления нового вида субъекта преступления // Вестник СПб. ун-та. Сер.: Право. 2019. №3. С. 461-476. С. 463.
8. Наумов В.Б., Незнамов А.В. Модельная конвенция о робототехнике и искусственном интеллекте: подходы к идентификации и вопросам безопасности // Динамика институтов информационной безопасности. Правовые проблемы: сб. науч. тр. / отв. ред. Т.А. Полякова, В.Б. Наумов, Э.В. Талапина. М.: ИГП РАН; «Канон+» РО-ОИ «Реабилитация», 2018. С. 125-137.
9. Хисанова З.И., Бегишев И.Р. Уголовная ответственности и искусственный интеллект: теоретические и прикладные аспекты // Всероссийский криминологический журнал. 2019. Т. 13, № 4. С. 564-574.
10. Шестак В. А., Волеводз А.Г., Ализаде В.А. О возможности доктринального восприятия системой общего права искусственного интеллекта как субъекта преступления: на примере уголовного законодательства США // Всероссийский криминологический журнал. 2019. Т. 13, № 4. С. 547-554.
11. Юридическая концепция роботизации: монография / отв. ред. Ю.А. Тихомиров, С.Б. Нанба. М.: Проспект, 2019. 240 с.
12. Schermer B.W. Software agents, surveillance, and the right to privacy: a legislative framework for agentenabled surveillance. Leiden: Leiden University Press, 2007. P. 10-11.
Поступила в редакцию 12.04.2020
Камалова Гульфия Гафиятовна, кандидат юридических наук, доцент, заведующий кафедрой информационной безопасности в управлении ФГБОУ ВО «Удмуртский государственный университет» 426034, Россия, г. Ижевск, ул. Университетская, 1 (корп. 4) E-mail: gulfia.kamalova@gmail.com
G. G. Kamalova
SOME QUESTIONS OF CRIMINAL LEGAL RESPONSIBILITY IN THE FIELD OF APPLICATION OF ARTIFICIAL INTELLIGENCE SYSTEMS AND ROBOTICS
DOI: 10.35634/2412-9593-2020-30-3-382-388
The article discusses the problems of improving criminal law in the context of the development of one of the types of breakthrough digital technologies - artificial intelligence. The author notes that the explosive development in this area has led to the growth of high-tech crime, a special place among which is occupied by crimes using tools of artificial intelligence technology. Since the subjects of criminal activity traditionally use advanced technologies, at present such crimes are already represented by fraud, computer information crimes, terrorism, violations in the field of road safety, violation of the right to privacy and a number of others. Although there are no special offenses related to artificial intelligence in the criminal law today, this does not mean that existing norms cannot be applied to traditional subjects. Given the current level of development of artificial intelligence technology, it is now necessary to strengthen criminal liability for the compositions provided for by the current Criminal Code of the Russian Federation by introducing an appropriate qualifying attribute. With the recognition of the legal personality of artificial intelligence systems and robots, one of the key issues of applying criminal law rules to them will be the question of the subjective side of the committed act. The lack of "strong" artificial intelligence and the current level of development of solutions and devices based on artificial technology allow us to limit ourselves to classifying the facts of their use as components of the objective side of the crime.
Keywords: legal liability, criminal liability, crime, information sphere, digital technologies, artificial intelligence, robotics, information security.
Received 12.04.2020
Kamalova G.G., Candidate of Law, Associate Professor, Head of the Department of Information safety management Udmurt State University
Universitetskaya st., 1/4, Izhevsk, Russia, 426034 E-mail: gulfia.kamalova@gmail.com