Юридические исследования
Правильная ссылка на статью:
Бахтеев Д.В. — Риски и этико-правовые модели использования систем искусственного интеллекта // Юридические исследования. - 2019. - № 11. DOI: 10.25136/2409-7136.2019.11.31333 URL: https;//nbpublish.com'library_read_article.php?id=31333
Риски и этико-правовые модели использования систем искусственного интеллекта
Бахтеев Дмитрий Валерьевич
кандидат юридических наук
доцент, кафедра криминалистики, Федеральное государственное бюджетное образовательное учреждение высшего образования «Уральский государственный юридический университет»
620137, Россия, Свердловская область, г. Екатеринбург, ул. Комсомольская, 21, кафедра
криминалистики
И dmitry.bakhteev@gmail.com
Статья из рубрики "Актуальный вопрос"
Аннотация.
Предметом исследования выступают закономерности взаимодействия общества и индивидов с технологиями искусственного интеллекта. Составляющими данного предмета являются технологические основы функционирования систем искусственного интеллекта, возможные риски и негативные последствия от применения этой технологии на примере интеллектуальной обработки персональных данных и существования автономных транспортных и боевых комплексов, этические и правовые подходы к её регулированию. Рассматриваются модели позиционирования систем искусственного интеллекта относительно возможности признания их личностей и, соответственно, наделения их правами. В основе исследования лежит метод моделирования, с помощью которого были определены стадии (этапы) этико-правового исследования технологии искусственного интеллекта, предложены модели реакции общества на развитие этой технологии. Основными выводами исследования является формулирование этапов изучения технологии искусственного интеллекта: исследования самой технологии, её рисков, моделей реакции общества и создания этических, а затем и правовых норм её регулирования. Приведён анализ возможных этико-правовых моделей субъектности систем искусственного интеллекта с точки зрения необходимости и возможности наделения их правами, в числе которых рассматриваются инструментальная, толерантная, ксенофобная и эмпатическая. Сформулированы основные положения кодекса этики разработчика и пользователя систем искусственного интеллекта.
Ключевые слова: искусственный интеллект, этика искусственного интеллекта, правосубъектность искусственного интеллекта, регулирование робототехники, кодекс этики, машинное обучение, искусственная нейронная сеть, автономные транспортные средства, большие данные, персональные данные
DOI:
10.25136/2409-7136.2019.11.31333
Дата направления в редакцию:
11-11-2019
Дата рецензирования:
13-11-2019
Исследование выполнено при финансовой поддержке Российского фонда фундаментальных исследований в рамках научного проекта 18-29-1600118 «Комплексное исследование правовых, криминалистических и этических аспектов, связанных с разработкой и функционированием систем искусственного интеллекта».
До двадцатого века единственным субъектами в деятельности человека, поведение которых могло быть заблаговременно спрогнозировано, были исключительно сам человек и объединения людей. Однако уже в настоящее время с определёнными оговорками можно говорить о процессе появления субъектов, которые человеком не являются, хотя и созданы им, и которые способны оказывать вполне заметное влияние на общество и отдельных его индивидов. Даже сейчас программное обеспечение способно привлекать и захватывать человеческое внимание и инициировать (или провоцировать) определённое поведение человека. Это может привести как к положительным изменениям в обществе, так и, при неправильном использовании, к негативным. Одной из ключевых задач развития юриспруденции в настоящее время является обеспечение готовности к восприятию и потенциальному регулированию ещё более перспективных технологий, одной из наиболее значимых из которых являются технологии искусственного интеллекта (далее - ИИ).
Создание так называемого «сильного» или «восходящего» искусственного интеллекта, способного по глубине и разнообразию своих когнитивных способностей сравниться или превзойти человека, что в свою очередь является одним из факторов ситуации технологической сингулярности, остаётся пока недостижимым. Большинство современных систем И И обладают, тем не менее, в определённых пределах антропоморфизмом (реально или предполагаемо). Речь в данном случае не идёт о человекоподобных роботах; сходство с человеком в данном случае следует понимать функционально, то есть большинство задач, решаемых такими системами, сводятся к ускорению и увеличению точности того, что уже может совершать человек, то есть влияние современных систем И И на общество носит скорее количественный, а не качественный характер. Более того, в основе таких систем лежат субъективные представления их создателей, а архитектура искусственных нейронных сетей - наиболее доступной технологии искусственного интеллекта - воспроизводит принципы работы мозга человека. Исследования Баррета и Кейла продемонстрировали, что при моделировании ситуации со всемогущим ИИ испытуемые наделяют его человекоподобными качествами
^—2]. Из этого можно сделать вывод, что к настоящему моменту человек может представлять разумность и интеллектуальность исключительно на примере самого себя. При этом один из разработчиков современных научных основ машинного обучения Ричард Саттон указывает, что одной из главных проблем при разработке систем ИИ является то, что их разработчики пытаются смоделировать человеческое мышление, в
том числе механически воспроизвести физическую топографию человеческого мозга, в то время как агенты (системы) искусственного интеллекта должны уметь совершить
открытия, а не просто понимать содержание того, что открыл человек -t^. Таким образом, регулирование систем искусственного интеллекта может быть построено по аналогии не только с регулированием исключительно использования предметов и технологий, но и регулирование деятельности субъектов.
Исследование этико-правовых аспектов использования, а в перспективе и регулирования искусственного интеллекта следует осуществлять по следующему а лгоритму.
Во-первых , требуется изучить необходимый минимум технико-технологических основ исследуемой технологии. В контексте искусственного интеллекта для этого требуется не просто визионирование и представление очень тёмного или очень светлого будущего, а понимание основ математической модели и способов реализации данной технологии.
Во-вторых , необходимо выработать понимание возможных рисков распространения технологии.
В-третьих , следует изучить возможные модели реакции общества на технологию искусственного интеллекта с учётом возможных ситуаций максимального и минимального воплощения указанных рисков.
В-четвёртых, исходя из полученных на предыдущих стадиях данных, должны быть сформулированы этические, а затем и правовые нормы, регулирующие как общие аспекты взаимодействия систем «человек - искусственный интеллект», так и отдельные направления и ситуации такого взаимодействия.Так, к примеру, должны быть установлены области человеческой деятельности, в которых применение систем искусственного интеллекта полностью исключается.
Основным отличием систем ИИ на основе искусственных нейронных сетей от традиционных программных комплексов является их обучаемость. Возможности по обработке данных всегда зависят от «опыта», который система ИИ набирает на стадии тренировки, обучаясь выявлять отдельные признаки и закономерности в предоставляемом для обучения массиве данных. Соответственно, качество реализации искусственной нейронной сетью своих функций напрямую зависит от количества элементов базы данных для обучения и их ограниченного разнообразия. Во многом бурное развитие рассматриваемой технологии было вызвано появившимися возможностями сбора больших данных (Big Data).
Такого рода данные могут принимать две основные формы: неструктурированные и структурированные.
К информации, относящейся к неструктурированным данным, относятся:
• видеопоток, формируемый камерами наблюдения, видеорегистраторами и пр.;
• поток мультимедийной (видео, звук, текст) информации, передаваемой и обрабатываемой операторами сотовой связи и интернет-провайдерами [4. C. 166-167].
С точки зрения правоохранительной деятельности, такая информация может быть использована в качестве оперативной и ориентирующей.
Сбор структурированных данных подчинён заранее установленной цели и производится
по определённым критериям. Примером таких данных могут служить объекты автоматизированных учётов, к примеру, АДИС «Папилон». Обработка таких данных может осуществляться как с частичной автоматизацией, так и полностью без участия оператора. Сведения такого рода зачастую могут быть использованы в судебно-экспертной деятельности.
Однако сами по себе большие данные, содержат интеллектуального компонента использованы человеком индивидуально. ис кус с тв е нной не йр о нно й с е ти на ка пл и совершаемых ошибок.
несмотря на их очевидную полезность, не и не могут быть, в силу их объёма, . Большие данные, при этом, позволяют вать опыт и минимизировать количество
При этом, как и в случае с обучением и подготовкой специалиста-человека, обучение ИИ никогда не способно охватить все возможные сценарии и варианты его будущего функционирования. Соответственно, ИИ, подобно человеку, способен ошибаться. Любые ошибки способны причинить вред, однако наибольший вред ошибки ИИ способны причинить в физическом мире. Наиболее очевидными примерами ситуаций, в которых уже сейчас ощущается присутствие ИИ в физическом мире, являются автономные транспортные и боевые системы.
Группы негативных ситуаций, возникающих с использованием ИИ в автономных мобильных системах, сводятся к следующим:
1. Риск совершения ошибки при распознавании объектов. К примеру, автономное транспортное средство может не распознать велосипедиста или пешехода в камуфляжной одежде (ложно-отрицательная ошибка), либо принять небольшую яму на дороге за значительное препятствие (ложно-положительная ошибка).
2. Базовые «этические настройки» программного обеспечения. В целом они сводятся к известной этической «проблеме вагонетки» и включают расстановку приоритетов в ходе принятия решения в условиях аварийной дорожной ситуации. К примеру, каким образом должен действовать двигающийся на большой скорости грузовик, управляемый ИИ, на дороге перед которым внезапно появляется группа людей, а на встречной полосе сформировался плотный поток автомобилей?
В последнем случае этические модели могут принимать следующие формы:
1. Совершить наезд на людей или выехать на встречную полосу, спровоцировав лобовое столкновение. Эти варианты предусматривают значительный риск гибели людей и причинения большого материального ущерба третьим лицам;
2. Съехать в кювет, что неминуемо вызовет критические повреждения автомобиля и угрозу жизни и здоровью пассажиров.
Такое ограниченное количество вариантов, которые могут обрабатываться с позиций
человеческой этики вызвано ограничением познавательных способностей человека «Экспериментальные данные указывают на то, что реализация этического поведения робота должна требовать лишь небольшого числа поведенческих альтернатив, которые должны быть сгенерированы и оценены. Оценка ограниченного числа поведенческих
альтернатив улучшит отзывчивость роботов»
Поведение ИИ в аварийных ситуациях может иметь этическую окраску: быть «альтруистичным» или «эгоистичным». Представляется, что в большинстве случаев
«настройки этичности» будут производиться при тренировке ИИ, однако следует упомянуть интересную идею, согласно которой этическая ответственность может быть переложена на лицо, владеющее автономным автомобилем. Для этого потребуется программный или программно-аппаратный комплекс - т. н. «этический рычаг», который «переключал бы настройки автомобиля с «полностью альтруистичного» режима на «полностью эгоистичный» и обратно, при этом режим по умолчанию был бы беспристрастным, то есть действующим исключительно согласно «заводским настройкам»
Иначе обстоит дело с автономными боевыми системами, к которым с определённой долей условности можно отнести военных и полицейских роботов и системы обеспечения домашней безопасности. Указанные объекты могут быть рассмотрены как интеллектуальные системы только при возможности принятия ими самостоятельных решений, на основе анализа входящей информации и без участия и вмешательства оператора-человека. Автономный боевой дрон, самостоятельно принимающий решение о поражении целей, создаёт двойственную с этико-правовой точки зрения ситуацию: с одной стороны, ответственность за причинение смерти или повреждений должна быть возложена на сторону, которая применила данное устройство. С другой стороны, ни один человек не может нести ответственность за итоговое решение, то есть, автономный дрон выступает в определённом смысле субъектом охранительных правоотношений.
Также следует упомянуть проблему идентификации комбатантов и гражданских лиц в ходе боевых действий: если идентификация представителей своей стороны боевым роботом обеспечивается довольно просто (с помощью униформы или радиометок), то вопрос различения противников и гражданских лиц остаётся открытым. «Существует бесконечное число ситуаций, в которых применение оружия будет неуместным. Достаточно подумать о детях, которых заставляют переносить разряженное оружие, или комбатантов, занятых похоронами своих погибших товарищей» [8. С. 118].
Несмотря на то, что физический вред может быть причинён только системами ИИ, имеющими материальное воплощение - роботами, вред, равно как и положительное воздействие, может и не носить материальный характер (по крайней мере, напрямую). К примеру, сбор и обработка сведений о гражданах Российской Федерации с помощью автоматизированных систем, в том числе и систем искусственного интеллекта ограничены только случаями их добровольного квалифицированного согласия. Искусственный интеллект при обработке таких сведений может быть использован как для
получения и обработки данных, так и для их защиты [9]. С одной стороны, исключительно машинная обработка данных позволяет исключить возможность их распространения или использования во вред субъекта персональных данных, с другой стороны, такая технология может быть использована для их защиты и помощи субъекту обработки персональных данных в защите таких сведений. Так, разработано программное обеспечение, которое позволяет идентифицировать человека без возможности утечки персональных данных. К примеру, если клиент передаёт организации копию своего паспорта, система искусственного интеллекта разделяет изображение документа на множество мелких частей и уже по ним осуществляется идентификация клиента. Полной копии паспорта в системе при этом не содержится, доступ оператора-человека к базе
данных также может быть затруднён или исключён I10!.
В рамках рассматриваемой темы возможными представляется два диаметрально противоположных варианта отношения к использованию И И при обработке персональных данных, либо иных данных, свободное распространение которых исключается:
1. В случае доверия общества к идее автоматизированной обработки таких данных, сохраняется текущее положение дел, или даже в перспективе полностью исключается возможность ручной обработки данных. При этом желательно, чтобы пользователь получал детализированную и доступную для понимания (то есть, не в форме нескольких страниц юридического текста) информацию о сущности операций с его данными и возможного их использования, в том числе третьими лицами. Такую модель можно выразить формулой «Без вмешательства оператора-человека данные будут в безопасности». Данная позиция представляется более правильной, тенденции трансформации общественного сознания также ведут именно к этому варианту.
2. Автоматизированная обработка данных будет восприниматься как ненадёжная или впоследствии даже незаконная. Такое изменение общественного сознания возможно лишь в случае нескольких последовательных случаев массовой утечки данных и причинённого в результате этой утечки реально оцениваемого значительного в рамках глобального общества ущерба.
Следует также кратко рассмотреть ситуацию, когда пользовательские данные уже не обрабатываются с помощью систем искусственного интеллекта, а используются для тренировки таких систем. Компания Microsoft для обучения искусственной нейронной сети в рамках проекта Celeb для распознавания лиц использовала миллионы
фотографий, размещённых пользователями в социальных сетях В результате
давления общества полученная база была удалена, что, впрочем, не свидетельствует о её окончательной ликвидации. Данные снимки размещались под лицензией Creative Commons, которая позволяет использовать их для развития новых технологий. Однако даже легальное разрешение данной ситуации не гарантирует возникновения подобных случаев. Интересы развития технологии и защиты приватности могут вступать в против о ре ч ие .
И ная форма риска, возникающего при функционировании рассматриваемых объектов (как материальных, так и действующих в цифровой среде), состоит в отсутствии полной прозрачности в основах их деятельности. Разработчикам программного обеспечения в силу конкуренции невыгодно раскрывать алгоритмы обучения и принятия решений коммерческих продуктов. Один из первых таких случаев произошёл в 2015 году при запуске беспилотных автомобилей под управлением ИИ, созданного компанией Nvidia, когда разработчик отказался предоставить доступ к исходному коду.
Другим аспектом непрозрачности, имеющим большее отношение к правовому полю, является затруднённость проверки оснований принятия системой И И решений: в структуре искусственной нейронной сети присутствует так называемый скрытый слой, находящийся между исходными данными и результирующим выводом, который слабо поддаётся расшифровке, что в определённом смысле опять же приближает логику И И к мышлению человека.
С усложнением систем искусственного интеллекта возрастает количество вопросов относительно их возможности воспринимать, чувствовать и осознанно действовать. Люди уже продемонстрировали способность испытывать симпатию и эмпатию к роботам, будь это персонажи художественных произведений, домашние помощники или детские развивающие игрушки. В этом смысле системы искусственного интеллекта (как правило, овеществлённые) уже воспринимаются с точки зрения этики, применимой к домашним питомцам. Примером могут служить отключение серверов, обслуживающих роботов Jibo, которое многие пользователи восприняли как смерть своего компаньона и отреагировали крайне эмоционально -U^i. Но может ли искусственный интеллект стать
хотя бы приблизительно равным человеку?
Для формирования представления о возможности наделения систем искусственного интеллекта субъектностью, человечество должно ответить на несколько частных вопросов:
■ Способен ли ИИ осознавать реальность? В когнитивных науках отсутствует точное определение сознания, так что можем ли мы категорично утверждать, что машина не способна мыслить? Ранее считалось, что ключевым отличием человека от машины является возможность творчества, но современные искусственные нейронные сети уже продемонстрировали способность создавать художественные произведения: от произведений живописи до музыки и стихов.
■ Может ли ИИ испытывать негативные или позитивные эмоции? Принуждение свободного человека к выполнению неприятной для него работы с помощью силы мы считаем насилием и всячески осуждаем. Не считать ли в таком случае ситуацию, когда разработанную и натренированную для выполнения определённой задачи систему искусственного интеллекта перепрограммируют для выполнения совершенно других операций также проявлением насилия? Или перепрограммированная система уже считается совершенно другой и потому страдать не может? И ли всё же такие системы несмотря на свою сложность и возможности являются не более, чем инструментом?
Такие вопросы могут показаться абсурдными, однако если заранее не проанализировать возможные ситуации будущего и производные от них риски, вряд ли общество и государство смогут оказаться готовыми к развитию рассматриваемой технологии.
Д. Гункель предлагает четыре исчерпывающие модели позиционирования роботов относительно возможности признания их личностей и наделения их правами. Представляется, что сужение рассматриваемого вопроса только до роботов, то есть до физически овеществлённых и автономно действующих объектов не совсем корректно. Системы искусственного интеллекта, не имеющие постоянного физического воплощения и существующие преимущественно в цифровой форме, также должны быть включены в рассматриваемые модели. Построение таких моделей осуществляется с точки зрения возможности и необходимости признания за такими объектами (или уже субъектами?) определённых прав. П рава при этом следует понимать не только в юридическом, но также и в социально-этическом смысле. С учётом изложенного, модели приобретают следующий вид.
1. Роботы (системы ИИ) не могут иметь права, роботы (системы ИИ) не должны иметь права;
2. Роботы (системы ИИ) могут иметь права, роботы (системы ИИ) должны иметь права;
3. Роботы (системы ИИ) могут иметь права, но не должны иметь права;
4. Роботы (системы ИИ) не могут иметь права, но должны иметь права [13. С. 26-52].
С нашей точки зрения эту систему следует дополнить этическими аспектами, поскольку мораль выступает более ранним регулятором, особенно в контексте внедрения в общественную жизнь технологий, способных оказать на неё существенное воздействие. В рамках настоящего исследования были сформулированы четыре вероятные мировоззренческие и поведенческие модели данной реакции, с учётом минимального или максимального воплощения указанных рисков:
1 . Инструментальная модель : системы искусственного интеллекта или их физические воплощения (роботы) представляют из себя не более, чем инструмент для решения частных прикладных или научных задач. Инструмент - продукт деятельности человека и способ изготовления других предметов, в том числе и инструментов. Однако данная точка зрения имеет ряд существенных недостатков. Если инструмент призван облегчить труд человека, то ИИ может заменить своей деятельностью труд человека. При этом некорректным будет сравнение искусственного интеллекта со станками времён промышленной революции. Такие станки лишили работы множество людей, однако при этом они создали новые рабочие места. В случае автоматизации вообще и использования систем искусственного интеллекта в частности мы уже наблюдаем ликвидацию определённых профессий, в первую очередь - связанных с посредническими услугами: консультантов, диспетчеров, маркетологов и т. д. Можно возразить, что при этом увеличивается количество разработчиков искусственного интеллекта, однако увеличение числа программистов не идёт в сравнение с уменьшением рабочих мест других профессий. Данная модель к настоящему времени является доминирующей, остальные же представляют сценарии вероятного характера.
2. Толерантная модель предполагает создание «сильного» ИИ, по своим когнитивным возможностям сравнимым со способностями человека. При этом предполагается определённое равенство между человеком и системой искусственного интеллекта, который при этом не вызывает угрозы обществу, соответственно, в силу ограниченного или полного равенства когнитивных и эмпатических способностей человека и системы искусственного, последняя должна быть наделена статусом субъекта права. Данная проблема находится в области этики, однако должна рассматриваться и с правовых позиций. Если в будущем роботы и другие формы искусственного интеллекта обретут самосознание и будут способы испытывать эмоции, концепцию правосубъектности придётся на них распространить. Уже известны примеры, когда отдельными правами человека наделялись искусственные личности. К примеру, известный робот София с октября 2017 года является подданной Саудовской Аравии, а Shibuya Mirai, программа, не имеющая физического воплощения, имитирующая речь и реакции 7-летнего мальчика, была признана гражданином Токио. До этого между 2004 и 2012 годами как минимум девять роботов были наделены специальным видом на жительство в Японии
Очевидно, что эти примеры носят скорее рекламный, популистский характер, однако являются первым прецедентом подобного рода. К настоящему времени до создания полноценного искусственного интеллекта, подобного человеческому, ещё далеко, однако исключать такой вариант нельзя, поэтому требуется разработка подходов к восприятию систем искусственного интеллекта как личностей и правового регулирования их статуса.
Если роботы достигнут определённого уровня когнитивных способностей, то есть, если они будут обладать очевидной моральной значимостью, проявляющейся в разуме или чувствительности, тогда они, вероятно, будут претендовать на признание их морального статуса и должны иметь права, то есть некоторую долю привилегий, претензий, полномочий или иммунитетов [13. C. 79]. Очевидно, что для описания данной модели используется слишком много слов «если» и «вероятно». Это выражает степень неуверенности в возможности развития ИИ до таких пределов, однако исключать такую возможность всё же нельзя.
3 . Ксенофобная модель предполагает по сути ситуацию рабства: человечество, формально признавая когнитивные способности систем искусственного интеллекта, по разным причинам предпочитает придерживаться инструментальной концепции и не
признаёт личностных и, соответственно, субъектных (в том числе и правосубъектных) качеств ИИ. Учитывая множество социальных, национальных и расовых противоречий и предрассудков, такой вариант может оказаться вполне реальным.
4 . Эмпатическая модель , по сути, представляет максимально человечное отношение человека к системе искусственного интеллекта. Общество, воспринимая в целом положительно домашних и иных социально-бытовых интеллектуальных роботов и программных помощников, благоприятно воспринимает идею распространения технологии и не исключает возможности наделения систем искусственного интеллекта свойствами субъекта права (в ограниченном смысле). Такое отношение может оказаться довольно опасным: «Социальные роботы, которые устанавливают с людьми эмоциональный контакт и, как следствие, последние глубоко доверяют роботам, что в свою очередь может быть использовано для манипулирования людьми ранее невозможными способами. Н апример, компания может использовать уникальные отношения робота со своим владельцем, чтобы робот убедил владельца приобрести продукты, которые компания хочет продвигать. Обращаем внимание, что в отличие от человеческих отношений, где при нормальных обстоятельствах социальные эмоциональные механизмы, такие как эмпатия и вина, предотвратят эскалацию таких сценариев» И^!.
В качестве примеров этических норм в рамках настоящего исследования был разработан кодекс этики разработчика и пользователя системы искусственного интеллекта, в общей части которого указаны следующие принципы.
1. Учёт и уважение основных конституционных прав человека и гражданина.
2. У лучшение качества жизни общества и индивидов как основная цель разработки и внедрения систем искусственного интеллекта.
3. Эффективность функционирования системы искусственного интеллекта по сравнению с показателями человека. Разработчик системы искусственного интеллекта должен быть готов предоставить доказательства этого качества.
4. Н аделение пользователей интеллектуальных систем возможностью доступа к предоставленным данным, в том числе персональным данным и контроля над их использованием.
5. Возможность проверки эффективности действий и решений, осуществляемых и принимаемых при помощи системы искусственного интеллекта.
6. Прозрачность сбора базы данных, возможность ограниченного и полного доступа к ней, при необходимости и по специальному запросу - раскрытие разработчиком системы искусственного интеллекта программного кода этой системы полностью или частично.
7. Узкая специальная направленность каждой системы искусственного интеллекта при её внедрении в практическую деятельность.
8. Компетентность разработчика системы искусственного интеллекта, в том числе в областях, в которых планируется внедрение этой системы.
9. Учёт возможных рисков от внедрения системы искусственного интеллекта в практическую деятельность.
10. Установление презюмируемой ответственности за последствия ошибок, совершённых
системой искусственного интеллекта-16!.
Подводя итог, отметим, что ИИ является крайне мощной технологией, напрямую или опосредованно влияющей на большинство сфер человеческой жизни, поэтому крайне важным является разработка и изучение этических основ функционирования таких систем. Понимание возможных рисков позволит обеспечить готовность общества и государства к развитию и распространению технологии искусственного интеллекта. Однако правовому регулированию должна предшествовать серьёзная научная работа по изучению этических основ данной технологии, в том числе рисков, их последствий и возможных реакций общества. Для того, чтобы технологии искусственного интеллекта получили полное признание, необходимо соблюдения ряда условий, таких как прозрачность и объяснимость получения и использования больших данных, внедрение и применение соответствующего кодекса этики, ведение разъяснительной работы с обществом и т. д. Описанная в настоящей работе модель исследования может оказать помощь будущим исследователям и послужить целям общественного и научно-технического прогресса.
Библиография
1. Barrett J. L., C. Keil F. C. Conceptualizing a Nonnatural Entity: Anthropomorphism in God Concepts // Cognitive psychology. 1996. Vol. 31. Issue 3. P. 219-247. DOI: 31. 219-47. DOI: 10.1006/cogp.1996.0017.
2. Yudkowsky E. Artificial Intelligence as a Positive and Negative Factor in Global Risk // Global Catastrophic Risks / ed. N. Bostrom, M. M. Cirkovic. 2008. P. 308-345.
3. Piatetsky G. Exclusive: Interview with Rich Sutton, the Father of Reinforcement Learning. URL:
https ://web.archive.org/web/20180111052706/https ://www.kdnuggets.com/2017/12/int erview-rich-sutton-reinforcement-learning.html (accessed: 16.06.2019).
4. Мещеряков В. А., Хорунжий С. Н. Влияние концепции «Больших данных» на криминалистическую теорию причинности // Причинность в криминалистике: сб. науч.-практ. статей / под общ. ред. проф. И. М. Комарова. М.: Юрлитинформ, 2018. С. 164-168.
5. Donoso M., Collins A., Koechlin E. Human cognition. Foundations of human reasoning in the prefrontal cortex // Science. 2014. Vol. 344. Issue 6191. P. 1481-1486. DOI: 344. 10.1126/science.1252254.
6. Vanderelst D., Winfield A. An architecture for ethical robots inspired by the simulation theory of cognition // Cognitive Systems Research. 2018. Vol. 48. P. 56-66. DOI: 10.1016/j.cogsys.2017.04.002.
7. Contissa G., Lagioia F., Sartor G. The Ethical Knob: ethically-customisable automated vehicles and the law // Artificial Intelligence Law. 2017. Vol. 25. Issue 3. P. 365-378. DOI: 10.1007/s10506-017-9211-z.
8. Lin P., Abney K., Bekey G. A. Robot Ethics: the Ethical and Social Implications of Robotics. Cambridge, Mass.: MIT Press, 2014. 400 pp.
9. GDPR Solution: AI Miner - AI-power your GDPR discovery and compliance/ URL: https ://www.elinar.com/artificial-intelligence/gdpr-solution-ai/(accessed: 16.06.2019).
10. KYC Brain - Simple, Efficient, Secure Solution For KYC and Compliance. URL: https://kycbrain.com/#About (accessed: 16.06.2019).
11. MS-Celeb-1M: Challenge of Recognizing One Million Celebrities in the Real World. URL: https ://www.microsoft.com/en-us/research/project/ms-celeb-1m-challenge-recognizing-one-million-celebrities-real-world/ (accessed: 16.06.2019).
12. Heater B. The lonely death of Jibo, the social robot. URL:
https ://techcrunch.com/2019/03/04/the-lonely-death-of-jibo-the-social-robot/ (accessed: 16.06.2019).
13. Gunkel, David J. Robot rights. Cambridge, MA: MIT Press, 2018. 256 pp.
14. Robertson J. Human rights vs. Robot rights: Forecasts from Japan // Critical Asian Studies. 2014. Vol. 46. Issue 4. P. 571-598. DOI: 10.1080/14672715.2014.960707.
15. Scheutz M. The Inherent Dangers of Unidirectional Emotional Bonds between Humans and Social Robots // Workshop on Roboethics at ICRA. 2009. URL:
https ://www.researchgate.net/publication/255701465_The_Inherent_Dangers_of_Unidir ectional_Emotional_Bonds_between_Humans_and_Social_Robots (accessed: 16.06.2019).
16. С полным текстом текущей версии Кодекса этики разработчика и пользователя системы искусственного интеллекта можно ознакомиться по ссылке:
https ://crimlib.info/images/3/38/AI_Eth.pdf.