УДК 347; 004.8
DOI 10.33184/pravgos-2020.4.7
К ВОПРОСУ О РЕГЛАМЕНТАЦИИ И СОДЕРЖАНИИ СИСТЕМЫ ПРАВОВЫХ ПРИНЦИПОВ ВЗАИМОДЕЙСТВИЯ
ЧЕЛОВЕКА С ИСКУССТВЕННЫМ ИНТЕЛЛЕКТОМ, РОБОТАМИ И ОБЪЕКТАМИ РОБОТОТЕХНИКИ1
ПОПОВА Анна Владиславовна
доктор юридических наук, кандидат философских наук, доцент, профессор Департамента международного и публичного права Юридического факультета Финансового университета при Правительстве Российской Федерации, профессор кафедры теории государства и права Института права Башкирского государственного университета, профессор кафедры конституционного права Юридического факультета им. М.М. Сперанского Института права и национальной безопасности Российской академии народного хозяйства и государственной службы при Президенте Российской Федерации, г. Москва, Россия. E-mail: [email protected]
В связи с появлением технологических решений, позволяющих создавать системы на основе сильного искусственного интеллекта (далее - ИИ), и высокой долей вероятности разработки в недалеком будущем сверхсильного ИИ особое внимание с недавних пор приковано к правовым проблемам регулирования взаимодействия человека и общества с новыми разумными агентами. Цель: анализ современных правовых принципов взаимодействия человека и ИИ, нейронных сетей и умных роботов, являющихся базой для формирования современного законодательства в данной сфере в России и зарубежных странах. Методы: эмпирические методы сравнения, описания, интерпретации, теоретические методы формальной и диалектической логики. Применялись также частнонаучные методы: сравнительно-правой, юридико-догматический. Результаты: исследование позволило на основе сравнительно-правового анализа существующего законодательства определить перечень правовых принципов взаимодействия человека не только с ИИ, но и с роботами и иными объектами робототехники. К их числу следу-
1 Статья подготовлена по результатам исследований, выполненных за счет бюджетных средств по государственному заданию ФГОБУ ВО «Финансовый университет при Правительстве Российской Федерации».
64
ет отнести принцип гуманизма, принцип справедливости, запрет дискриминации в сфере использования ИИ, роботов и объектов робототехники, презумпцию невиновности человека, принцип недопустимости причинения вреда человеку, принцип уважения человеческого достоинства, принцип конфиденциальности, принцип раскрытия информации о разработке, производстве и использовании роботов и ИИ, принцип автономности воли при использовании систем, оснащенных ИИ, принцип презумпции согласия принцип информированного согласия на использование (воздействие) систем, оснащенных ИИ.
Ключевые слова: искусственный интеллект; робот; робототехника; правовое государство; правовые принципы, права и свободы человека и гражданина.
Общественные отношения, существующие на данном этапе научно-технического развития, предопределили необходимость трансформации правовой составляющей социального взаимодействия естественного (человеческого) и искусственного интеллекта в первую очередь путем включения новых, выходящих за рамки создаваемого веками правового тезауруса, терминов, категорий, дефиниций в юридический обиход для характеристики нового экономического уклада цифрового общества. Современные возможности и связанные с ними новые риски и угрозы для государства, общества и отдельных индивидов формируют ситуацию, когда правовое поле как минимум должно подстроиться под воплощаемую реальность и как максимум создать «задел» для обеспечения дальнейшего соответствия между развивающимися цифровыми технологиями, технологиями искусственного интеллекта1 и социальными отношениями в целом и правовыми в частности.
Для определения принципиальных подходов к необходимой правовой трансформации в рамках достижения поставленных целей и задач особое значение имеет теоретико-правовая основа определения места и роли нейронных сетей, киберфизических систем, ИИ, основанных на нем нейронных сетей, различного вида роботов и робототехники в системе права и системе законодательства национального и наднационального
1 О проведении эксперимента по установлению специального регулирования в целях создания необходимых условий для разработки и внедрения технологий искусственного интеллекта в субъекте Российской Федерации - городе федерального значения Москве и внесении изменений в статьи 6 и 10 Федерального закона «О персональных данных» : федер. закон от 24.04.2020 № 123-Ф3 [Электронный ресурс] // Официальный интернет-портал правовой информации. URL: http://www.pravo.gov.ru (дата обращения: 24.04.2020).
65
уровня. Основополагающим принципом правового регулирования, на наш взгляд, должен остаться принцип гуманизма, образующий антропоцентрическую правовую оболочку, которая строится вокруг незыблемости прав и свобод человека, их высшей ценности по отношению к другим (всем) менее значимым категориям. Такие глобальные изменения экспозиции будущего мира просто нельзя отразить в точечных, неполных и бессистемных изменениях законодательства. В рамках достижения поставленной цели для дальнейшего развития ИИ, нейронных сетей, роботов и объектов робототехники и их практического применения в отраслях народного хозяйства и различных сферах цифровой экономики необходимо планомерно реализовывать намеченные задачи, создавая обновленную нормативную правовую базу.
В России принят Федеральный закон от 24 апреля 2020 г. № 123-ФЗ «О проведении эксперимента по установлению специального регулирования в целях создания необходимых условий для разработки и внедрения технологий искусственного интеллекта в субъекте Российской Федерации - городе федерального значения Москве и внесении изменений в статьи 6 и 10 Федерального закона "О персональных данных"» (далее -Закон № 123-ФЗ), которым с 1 июля 2020 г. в Москве на 5 лет устанавливается экспериментальный правовой режим по внедрению ИИ в жизнь каждого жителя «умного города»1, цели, задачи и принципы этого экспериментального правового режима. Но в нем, к сожалению, нет статей, регулирующих правовые и этические принципы взаимодействия человека и ИИ, киберфизических систем, роботов и объектов робототехники, что, на наш взгляд, может привести к определенным социальным рискам в будущем в процессе проведения подобного эксперимента.
Правовые и этические принципы [1] представляют собой единый комплекс, на основе которого и должно быть создано российское законодательство в области ИИ. Прежде всего, необходимо определиться, о каком именно виде ИИ идет речь в Законе № 123-Ф3, ведь в современной научной литературе определены семь направлений развития ИИ, начиная от способности систематизировать и воспроизводить различные области знания на основе анализа различной информации, используя алгоритмы обучения и самообучения, до способности «разумного» общения с другими системами на основе ИИ и человеком, применяя заложенные поведенческие алгоритмы и интеллектуальное программирование [2]. Развитие робототехники и появление «умных роботов», «социальных роботов»,
1 Стратегия «Умный город - 2030» [Электронный ресурс]. URL: https:// ict.mos-cow/docs/Strategy_Smart_City_v5.pdf (дата обращения: 11.10.2020).
66
сильного ИИ (ASI) и, возможно, уже в скором будущем сверхсильного ИИ (SAI) требует от законодателя определенности в формулировании правовых и этических принципов взаимодействия людей, общества и государства в целом и этих видов ИИ.
В Законе № 123-ФЗ практически нет указаний на цифровые технологии, упоминается исключительно ИИ, правда, не понятно, о каком его виде идет речь. Нет речи и о правовых и этических принципах взаимодействия с ИИ, но зато уже регламентируются принципы специального правового режима, к числу которых законодатель в п. 3 ч. 2 ст. 3 отнес: 1) прозрачность экспериментального правового режима; 2) защиту прав и свобод человека и гражданина, обеспечение безопасности личности, общества и государства; 3) недискриминационный доступ к результатам применения ИИ. Принципы просто перечислены без правовой расшифровки их содержания, что дает возможность широкого толкования данной нормы правоприменителем, то есть высшим исполнительным органом Москвы или нейронной сетью, или ботом на основе ИИ. Особую озабоченность вызывает тот факт, что в соответствии со ст. 4 сами технологии ИИ и (или) производства, реализации, оборота отдельных товаров (работ, услуг) на основе указанных технологий, а также требования к указанным технологиям и (или) товарам (работам, услугам), все случаи и порядок использования результатов применения ИИ, а также случаи обязательного применения и (или) учета результатов применения ИИ в деятельности органов исполнительной власти субъекта Российской Федерации - города федерального значения Москвы и подведомственных организаций, порядок и случаи передачи собственниками средств и систем фото- и видеонаблюдения изображений, полученных в соответствии с условиями, предусмотренными подп. 1 и 2 п. 1 ст. 152.1 ГК РФ, а также предоставления доступа к таким средствам и системам фото- и видеонаблюдения органам государственной власти и организациям, осуществляющим публичные функции в соответствии с нормативными правовыми актами Российской Федерации, по согласованию с уполномоченным федеральным органом исполнительной власти, осуществляющим функции по выработке и реализации государственной политики и нормативно-правовому регулированию в сфере информационных технологий, порядок и условия обработки участниками экспериментального правового режима персональных данных, полученных в результате обезличивания, на основании соглашений с уполномоченным органом, а также требования к таким соглашениям определяет высший исполнительный орган государственной власти субъекта Российской Федерации - города федерального значения Москвы. При-
67
чем в самом тексте Закона № 123-ФЗ нет принципов, которыми должен руководствоваться данный орган исполнительной власти, не прописана ответственность в случае принятия ошибочного решения ИИ, которым станет руководствоваться мэрия Москвы.
31 июля 2020 г. был принят Федеральный закон № 258-ФЗ «Об экспериментальных правовых режимах в сфере цифровых инноваций в Российской Федерации» , в ст. 4 которого также предложены принципы действия экспериментального правового режима, к числу которых, по сравнению с Законом № 123-ФЗ, добавлены: недопустимость нарушения единства экономического пространства на территории Российской Федерации или иного умаления гарантий защиты прав граждан и юридических лиц, предусмотренных Конституцией РФ и всем российским законодательством; равноправие претендентов; добровольность участия в экспериментальном правовом режиме; определенность специального регулирования по времени, кругу лиц и, если иное не вытекает из существа экспериментального правового режима, ограничение специального регулирования в пространстве; минимизация отступлений от общего регулирования. Предусмотрена и гражданско-правовая ответственность за причинение вреда в ходе такого режима (п. 4 ст. 5).
Отметим, что на текущем этапе государственно-правового развития просто невозможно спрогнозировать все возможные последствия включения ИИ в правовое поле практически каждой сферы общественной жизни. Нельзя также предсказать, какого уровня достигнет развитие ИИ в будущем, по той простой причине, что на текущий момент его совершенствование ограничено техническими возможностями по обеспечению «софтом», однако в случае решения этой проблемы его развитие, по мнению ученых-техников, не будет ограничено уже ничем. И в этой связи наиболее важным аспектом в деятельности ученых-юристов становится не формулирование конкретных правовых установлений, дающих определении ИИ, включающих его в правовые конструкции и снабжающих узаконенными правами (поскольку все эти положения могут очень быстро устареть, если или когда появится ИИ, способный к самопознанию, саморазвитию, с собственным представлением о своем месте в мире), а формулирование правильных принципов правового регулирования, со-
1 Об экспериментальных правовых режимах в сфере цифровых инноваций в Российской Федерации : федер. закон от 31.07.2020 № 258-ФЗ [Электронный ресурс] // Офиц. интернет-портал правовой информации. URL: http://www.pravo.gov.ru (дата обращения: 31.07.2020).
68
провождаемое надеждой, что и ИИ будет ими руководствоваться и соблюдать в той же мере, что и человечество.
Исходя из вышеизложенного, следует уделить особое внимание принципам правового регулирования исследуемой тематики. На наш взгляд, в число этих принципов (помимо общеправовых, таких как гуманизм, законность, запрет дискриминации и стигматизации) должны войти основные начала правового регулирования, способные задать правильный вектор выстраиванию взаимодействия между двумя видами интеллектов. Ведь правовое обеспечение общеправовых принципов осуществляется через межотраслевые и отраслевые принципы правового регулирования, к системе которых следует отнести следующие.
1. Принцип недопустимости причинения вреда человеку, опосредованно сформулированный еще в 1943 г. А. Азимовым [3], тремя законами робототехники. Интересным фактом здесь является то, что все эти законы дословно приведены со ссылкой на источник в пункте «М» введения к Докладу Европарламента с рекомендациями Комиссии по нормам гражданского права в области робототехники: «(1) робот не может причинить вред человеку или своим бездействием допустить причинения вреда человеку. (2) робот должен подчиняться приказам, данным ему людьми, за исключением случаев, когда такие приказы противоречат Первому Закону. (3) робот должен защищать свое существование до тех пор, пока такая защита не противоречит Первому или Второму Законам и (0) робот не может причинить вред человечеству или бездействием позволить человечеству прийти к вреду»1.
По мнению фантаста, эти законы изначально должны быть заложены в программу ИИ как аналог нравственных ценностей, «категорического императива» для индивида. Неслучайно именно они легли в основу Кодекса этики для разработчиков робототехники, являющегося Приложением к Резолюции Европарламента от 16 февраля 2017 г. 2015/2013 (INL) P8_TA-PROV(2017)0051 . Однако
в данном случае следует учитывать, что системы ИИ уже нашли свое применение не только в гражданской, но и в военной сфере. Это накладывает определенные ограничения на применимость указанного принципа. Уже есть примеры причинения вреда
1 Draft report with recommendations to the Commission on Civil Law Rules on Robotics (2015/2103(INL) Committee on Legal Affairs [Электронный ресурс]. URL: http://www.europarl.europa.eu/doceo/document/JURI-PR-582443_EN.pdf (дата обращения: 18.09.2020).
2 Резолюция ЕС 2015/2013(INL). Резолюция Европарламента от 16.02.2017 2015/2013 (INL) P8_TA-PROV(2017)0051, включает текст Хартии робототехники [Электронный ресурс]. URL: http://robopravo.ru/riezoliutsiia_ies (дата обращения: 02.10.2020).
69
человеку. Так, в 2017 г. Корпорация Amazon (США) была вынуждена закрыть экспериментальный проект по найму сотрудников на основе ИИ, так как алгоритм занижал оценки кандидатов-женщин, поскольку был обучен на прошлом десятилетнем опыте отбора кандидатов в Amazon, среди которых преобладали мужчины.
2. Принципы уважения человеческого достоинства и конфиденциальности, обусловленные тем, что частная информация о человеке может быть раскрыта через решения и прогнозы, сделанные ИИ. Более того, от применения некоторых возможностей технологий на основе ИИ может пострадать и человеческое достоинство, так как ИИ позволяет все более реалистичные фото-, аудио- и видеоподделки, или «глубокие подделки», которые могут быть использованы для дискредитации граждан. Так, известна ошибка, допущенная ИИ в Китае, когда в числе злостных нарушителей правил дорожного движения была названа Дун Минчжу (входит в первую сотню самых влиятельных женщин Китая по версии Forbes) просто из-за того, что ее портрет в рекламных целях был размещен на автобусе.
3. Презумпция невиновности человека при решении ИИ, киберфи-зической системой, нейронной системой вопросов, связанных с правомерным поведением человека (приложение «Социальный мониторинг» в Москве в период пандемических мероприятий однозначно исходит из принципа виновности больного COVID-19, невзирая на то, что, например, возможен сбой в системе GPS или человек спит и не слышит сигнала о необходимости прислать селфи, или камеры наружного наблюдения распознают лицо гражданина примерно на 52 %, и в этом случае он считается нарушившим режим и обязан доказать свою невиновность и т. д.) [4].
4. Принцип раскрытия информации о разработке, производстве и использовании роботов и ИИ, смысл которого заключается в том, что разработчики, производители и участники хозяйственного оборота обязаны будут раскрывать информацию о количестве «умных роботов», которых они используют, об экономии средств, вносимых на социальное обеспечение за счет использования робототехники вместо человеческого персонала, об оценке суммы и доли доходов предприятия, полученных в результате использования робототехники и ИИ. Особенно важным данный принцип представляется для защиты прав и свобод физических лиц в случае принятия решения на основе данных нейронных сетей, киберфи-зических систем, ИИ или использования ими персональных данных [5]. Только таким образом можно создать атмосферу доверия к ИС, которая основана на принципах надежности, справедливости, безопасности, объ-
70
ясняемости и точной информации обо всех ее составляющих, то есть создать объяснимый или прозрачный ИИ (ХА1) [6].
5. Принцип автономности воли, по нашему убеждению, должен иметь отношение не только к гражданам, у которых должно быть гарантированное легальное право принимать обоснованное, непринуждаемое решение об условиях взаимодействия с ИИ, киберфизическими системами, роботами или объектами робототехники, но и к разработчикам алгоритмов и программистам подобных ИС и их владельцам [7, с. 90-91]. При этом последние, с одной стороны, должны быть лишены предвзятости, а с другой - иметь возможность учесть в создаваемых алгоритмах и программах автономию воли при использовании методов машинного обучения (МЦ) различных моделей нейронных сетей - создание автоматизированного машинного оборудования (АШоМГ). До внедрения в практику мультизадачных моделей следует законодательно зафиксировать запрет на использование отдельных моделей нейронных сетей, созданных с определенной целью, для решения иных задач (например, использовать сверточные сети для создания изображений или порождающие сети для моделирования определенных последовательностей) [8].
6. Принцип информированного согласия, или презумпция несогласия, тесно связан с предыдущим принципом и охватывает все возможные преимущества и последствия взаимодействия с ИИ, начиная от медицины, образования и заканчивая сферой развлечений, применением гейми-фикации при обучении и др. Граждане должны иметь возможность отказаться от использования интеллектуальных технологий как в публичной, так и в частной сфере. Простого публичного уведомления об их использовании явно будет мало.
Особого внимания требует внедрение и использование технологий, связанных с распознаванием эмоций, призванных определять такие аспекты, как испытываемые индивидом чувства, состояние его психического здоровья, «вовлеченность» сотрудников (студентов) в трудовой (образовательный) процесс. Такие технологии основаны на принципе профай-линга и системе кодирования лицевых движений (БАСБ) П. Экмана и У. Фризена [9], особую эффективность имеют сверточные нейронные сети [10], распознающие эмоции по голосу диктора. Пока точность таких систем составляет около 61-73 %, что, безусловно, дает возможность интерпретировать достаточно вольно их результаты, следовательно, свидетельствует о принципиальной необходимости легального закрепления принципа информированного согласия субъектов права.
71
7. Принцип справедливости - принцип, предусматривающий справедливое распределение преимуществ, связанных с использованием ИИ, робототехники и доступностью роботов [11]. Правовое регулирование должно оцениваться с точки зрения того, способствуют ли они демократическому развитию и справедливому распределению благ ИИ или концентрируют власть и выгоды в определенных кругах. Особое внимание следует уделить трактовке понятий «благо человека», «благо социума».
Поскольку будущие технологии ИИ и их последствия невозможно предвидеть с полной ясностью, правовую политику необходимо будет постоянно пересматривать в контексте наблюдаемых социальных проблем и данных, полученных в результате полевых исследований. Полагаем, с течением времени при внедрении систем сверхсильного ИИ будет дополняться и перечень правовых принципов, которые лягут в основу правового регулирования сферы ИИ, киберфизических систем, нейронных сетей, основанных на нем, а также роботов и объектов робототехники.
Библиографический список
1. Попова А.В. Этические принципы взаимодействия с искусственным интеллектом как основа правового регулирования // Правовое государство: теория и практика. 2020. № 3. С. 37-46.
2. Романова П.С., Романов И.П. Системы искусственного интеллекта: учеб. пособие (практикум). Коломна : КИ (ф) МГОУ, 2014. 86 с.
3. Азимов А. Хоровод // Азимов А. Я, робот. М. : ЭКСМО, 2019. С. 43-70.
4. Верховский А. Унизительный мониторинг: что не так со столичной системой слежения за больными COVID-19 // Forbes. 2020. 29 мая. URL: https://yandex.ru/turbo/s/forbes.ru/obshchestvo/401629-unizitelnyy-mo-nitoring-chto-ne-tak-so-stolichnoy-sistemoy-slezheniya-za-bolnymi.
5. Заплатина Т.С. Искусственный интеллект в вопросе вынесения судебных решений, или ИИ-судья // Вестник ун-та им. О.Е. Кутафина. 2019. № 4. С. 160-168. DOI: 10.17803/2311-5998.2019.56.4.160-168.
6. На пути к прозрачности ИИ: четыре столпа, необходимые для укрепления доверия к системам искусственного интеллекта. URL: https:// ru.sciencewal.com/68882-towards-ai-transparency-four-pillars-required-to-build-trust-in-artificial-intelligence-systems-d1c45a1bdd59-68.
7. Лаптев В.А. Понятие искусственного интеллекта и юридическая ответственность за его работу // Право. Журнал Высшей школы экономики. 2019. № 2. С. 79-102.
72
8. Коротеев М.В. Обзор некоторых современных тенденций в технологии машинного обучения // E-Management. 2018. Т. 1, № 1. С. 26-35. DOI: 10.26425/2658-3445-2018-1 -26-35.
9. Friesen W., Ekman P. EMFACS-7: Emotional Facial Action Coding System / Unpublished manual, University of California. California, 1983.
10. Галушкин А.И. Нейронные сети: основы теории. М. : Горячая линия - Телеком, 2017. 496 с. URL: https://e.lanbook.com/book/111043.
11. Либби П. Как мы можем укрепить доверие к искусственному интеллекту? Преимущества и недостатки объяснимого ИИ. URL: https://www.intel.ru/content/www/ru/ru/it-managers/explainable-ai.html.
Дата поступления: 18.10.2020
ON THE REGULATION AND CONTENT OF A LEGAL FRAMEWORK FOR HUMAN INTERACTION WITH ARTIFICIAL INTELLIGENCE, ROBOTS AND OBJECTS OF ROBOTICS
POPOVA Anna Vladislavovna
Doctor of Law, Candidate of Philosophy, Associate Professor, Professor of the Department of International and Public Law of the Law Faculty of the Financial University under the Government of the Russian Federation; Professor of the Chair of Theory of State and Law of the Institute of Law of the Bashkir State University; Professor of the Department of Constitutional Law of the Faculty of Law named after M. M. Speransky of the Institute of Law and National Security of the Russian Presidential Academy of National Economy and Public Administration, Moscow, Russia. E-mail: [email protected]
Due to the emergence of technological solutions that allow creating systems based on strong artificial intelligence (AI), and the high probability of developing super-strong AI in the near future, special презумпцию невиновности человека attention has recently been paid to the legal problems of regulating the interaction of humans and society with new intelligent agents. The purpose of the research is to analyze modern legal principles of interaction between humans and artificial intelligence, neural networks and intelligent robots, which are the necessary basis for forming modern legislation in this area in Russia and foreign countries. Methods: empirical methods of comparison, description, interpretation; theoretical methods of formal and dialectical logic are
73
used. Special scientific methods are used: comparative-legal, legal-dogmatic. Results: the study allows us to determine a number of relevant legal principles of human interaction with AI as well as with robots and other objects of robotics, based on a comparative legal analysis of the current legislation. They are the principle of humanism; the principle of justice; the prohibition of discrimination when using AI, robots and objects of robotics; the presumption of human innocence; the principle of human innocence; the principle of respect for human dignity; the principle of confidentiality; the principle of disclosure of information on the development, production and use of robots and artificial intelligence; the principle of autonomy of will when using systems equipped with AI; the principle of the presumption of consent; the principle of informed consent to the use (impact) of systems equipped with AI.
Keywords: artificial intelligence; robot; robotics; rule-of-law state; legal principles, rights and freedoms of man and citizen.
References
1. Popova A.V. Ethical principles of interaction with artificial intelligence as the basis of legal regulation. Pravovoe gosudarstvo: teoriya i praktika = The Rule-of-Law State: Theory and Practice, 2020, no. 3, pp. 37-46. (In Russian).
2. Romanova P.S., Romanov I.P. Sistemy iskusstvennogo intellekta [Artificial intelligence systems]. Kolomna, KI (f) MGOU Publ., 2014. 86 p.
3. Azimov A. Round dance. In Azimov A. YA, robot [I am robot]. Moscow, EKSMO Publ., 2019, pp. 43-70. (In Russian).
4. Verkhovsky A. Humiliating monitoring: what is wrong with the metropolitan monitoring system for COVID-19 patients. Forbes, 2020, May 29. Available at: https://yandex.ru/turbo/s7forbes.ru/obshchestvo/401629-unizitelnyy- moni-toring-chto-ne-tak-so-stolichnoy-sistemoy-slezheniya-za-bolnymi. (In Russian).
5. Zaplatina T.S. Artificial intelligence for adjudication, or AI judge. Vestnik universiteta imeni O.E. Kutafina = Courier of the Kutafin Moscow State Law University, 2019, no. 4, pp. 160-168. (In Russian).
6. Na puti k prozrachnosti II: chetyre stolpa, neobhodimye dlya ukrep-leniya doveriya k sistemam iskusstvennogo intellekta [Towards AI Transparency: Four Pillars Required to Build Trust in AI Systems]. Available at: https://ru.sciencewal.com/68882-towards-ai-transparency-four-pillars-required-to-build-trust-in-artificial-intelligence-systems-d1c45a1bdd59-68. (In Russian).
7. Laptev V.A. The concept of artificial intelligence and legal responsibility for its work. Pravo. ZHurnal Vysshej shkoly ekonomiki = Law. Journal of the Higher School of Economics, 2019, no. 2, pp. 79-102. (In Russian).
74
8. Koroteev M.V. An overview of some of the current trends in machine learning technology. E-Management, 2018, vol. 1, no. 1, pp. 26-35. (In Russian).
9. Friesen W., Ekman P. EMFACS-7: Emotional Facial Action Coding System / Unpublished manual, University of California. California, 1983.
10. Galushkin A.I. Nejronnye seti: osnovy teorii [Neural networks: basic theory]. Moscow, Goryachaya liniya - Telekom Publ., 2017. 496 p. Available at: https://e.lanbook.com/book/111043.
11. Libbi P. Kak my mozhem ukrepit' doverie k iskusstvennomu intellek-tu? Preimushchestva i nedostatki ob"yasnimogo II [How can we build trust in artificial intelligence? Advantages and Disadvantages of Explainable AI]. Available at: https://www.intel.ru/content/www/ru/ru/it-managers/explainable-ai.html. (In Russian).
Received: 18.10.2020
75