УДК 172
DOI 10.17726ДОШТ2020.1.3
Как проблема персональных данных меняет этику искусственного интеллекта?
Ястреб Наталья Андреевна,
доктор философских наук, доцент, директор Гуманитарного института, Вологодский государственный университет, 160025, Россия, г. Вологда, ул. Ленина, 15
nayastreb@mail.ru
Аннотация. В статье проводится сравнительный анализ концепций этики искусственного интеллекта США, Китая, Европейского союза и Австралии. Выявлены общие принципы и проблемы формирования этических комиссий для проведения этической экспертизы систем искусственного интеллекта. Показано, что в настоящее время определяющую роль в проведении гуманитарной оценки оказывают представители бизнес-сообщества и органов власти, при этом институты гражданского общества имеют большой потенциал влияния на принятие решений в этой сфере. Проблема персональных данных рассмотрена в разрезе защиты конфиденциальности информации, возможности информированного согласия и обеспечения безопасности пользователей. Показано, что открытость общества, усиливающаяся в результате внедрения новых медиа и систем искусственного интеллекта, является двухсторонней, что естественным образом ограничивает возможности построения тоталитарного государства.
Ключевые слова: искусственный интеллект, этика, персональные данные.
How personal data problem changes ethics of artificial intelligence?
Yastreb Natalia А.,
Doctor of Philosophy, Associate Professor, Director of the Institute of Humanities,
Vologda State University, 15, Lenina str., Vologda, Russia, 160025
nayastreb@mail.ru
Как проблема персональных данных меняет этику искусственного интеллекта?
Abstract. The article analyzes the impact of the problem of personal data on the discussion of the ethical aspects of artificial intelligence. The concept of artificial intelligence ethics of the USA, China, the European Union and Australia is analyzed. The general principles and problems of forming ethical commissions for conducting an ethical examination of artificial intelligence systems have been identified. It is shown that at present, the decisive role in conducting a humanitarian assessment is provided by representatives of the business community and government. At the same time, civil society institutions have great potential to influence decision-making in this area. The problems of protecting the confidentiality of information, the possibilities of informed consent and ensuring the safety of users are considered. It is shown that the openness of society, intensifying as a result of the introduction of new media and artificial intelligence systems, is two-sided, and naturally limits the possibilities of building a totalitarian state.
Keywords: artificial intelligence, ethics, personal data.
Введение
Этические проблемы, связанные с разработкой систем искусственного интеллекта, давно и с разных сторон подвергаются философскому анализу. Можно проследить несколько традиций их осмысления, начиная с общей критики техники представителями Франкфуртской школы, заканчивая художественными интерпретациями страхов человечества перед умными машинами, широко представленными в кинематографе и литературе. В данной работе ставится проблема анализа изменения ракурса этических проблем искусственного интеллекта, вызванного актуализацией политики управления персональными данными человека.
Можно видеть, что современные системы искусственного интеллекта повсеместно используются для сбора и обработки как явных данных о человеке, таких как имя, место жительства и т.д., так и неявных сведений. Последние в большом количестве представлены цифровыми следами пребывания человека в сети, информацией, собираемой трекинговыми приложениями, системами слежения и другими ресурсами. Возникает важный вопрос — проложит ли появление этих интеллектуальных систем «путь к лучшему пониманию общества и более рациональному принятию решений или приведет к эксплуатации и контролю со стороны властных
интересов, которые станут использовать инструмент фетишизации и диктатуры данных» [1, с. 4].
В связи с этим этические проблемы, связанные с пониманием границ приватного и публичного, частного и общественного, а также с тем, какие данные в принципе являются персональными, приобретают особую актуальность, причем не только для философских исследований, но и для обоснования принятия, например, медицинских или юридических решений.
Можно определить две сферы этических проблем искусственного интеллекта. К первой сфере относятся этические нормы, стандарты и принципы, которые регламентируют общественные отношения, связанные с разработкой и применением искусственных интеллектуальных систем. Вторая сфера включает в себя более фундаментальные представления о том, как должны разрабатываться и использоваться такие системы с учетом их потенциального влияния на благополучие и ценностные ориентации общества [2]. На первый взгляд, этические проблемы персональных данных носят сугубо прикладной характер, однако при более глубоком рассмотрении становится понятным, что системы сбора и анализа явных и неявных цифровых следов человека могут изменить многие социальные практики, ценности и даже представления о человеке и обществе.
Материалы и методы исследования
Методологическая основа исследований в области этики искусственного интеллекта в настоящее время очень гетерогенна. Ее фундамент составляет традиция этического анализа и социальной оценки техники. Любая техническая инновация имеет этическую составляющую, поскольку так или иначе изменяет локальные или глобальные социальные практики, и системы искусственного интеллекта не исключение. В этом смысле признание этической нейтральности техники в полной мере невозможно [3]. Однако при использовании технических средств существенную роль играют собственные этические системы тех людей, которые принимают решения и осуществляют действия.
Возникает закономерный вопрос о том, есть ли что-то принципиально отличное в этике искусственного интеллекта по сравнению с другими создаваемыми человеком устройствами. Идея об особом этическом статусе искусственного интеллекта традицион-
Как проблема персональных данных меняет этику искусственного интеллекта?
но связывалась с предположением о его потенциальной субъект-ности и, следовательно, тем, что впервые в истории техническая система наделяется ответственностью за свои действия. В отсутствие субъектности интеллектуальные системы ничем принципиально не отличаются от других инструментов и не требуют создания дополнительных этических систем [4]. С этим утверждением можно не согласиться, так как отдельные инструменты, обладающие исключительным потенциалом воздействия на человека, как мы видим в истории развития ядерных технологий или биомедицины, требуют особого подхода и отдельного этического анализа. Такую же ситуацию можно наблюдать в области искусственного интеллекта. Появление в последние два-три года множества официальных национальных документов, декларирующих этические принципы разработки и применения искусственных интеллектуальных систем [5-9], демонстрирует одновременно влияние культурных, политических, экономических особенностей представивших их стран и желание достичь консенсуса в вопросах интернационального использования «умных» систем. Следует отметить, что именно опыт биоэтики часто используется как методологическая основа для разработки этических концепций в сфере искусственного интеллекта. Это проявляется в том, что в состав соответствующих коллективов зачастую входят генетики, врачи, биотехнологи, а в некоторых случаях такой подход открыто заявляется в методологических принципах [10].
По сути, главная особенность искусственного интеллекта с позиции этики состоит в том, что огромный потенциал воздействия на человека и общество соединяется с неопределенностью и разнообразием этических систем и философских представлений людей, участвующих в его разработке и применении. Проблема персональных данных — это лакмусовая бумажка, демонстрирующая разнообразие ценностей, менталитетов, убеждений и представлений о должном, и на ее примере можно видеть общие тенденции развития этики искусственного интеллекта.
Наука, бизнес или власть как субъекты этической оценки
систем искусственного интеллекта
Использование искусственного интеллекта для работы с персональными данными в последнее время вызывает все больше опа-
сений, иногда переходящих в открытые скандалы. Так, в 2018 году в США поднялась волна протестов против использования данных американскими технологическими гигантами, такими как Google, MIT Media Lab [11]. Взлом данных 50 млн пользователей Facebook для маркетинговой компании, участвовавшей в избирательной гонке Д. Трампа; контракт Google с Пентагоном на разработку программного обеспечения для систем искусственного зрения, используемых в боевых действиях; контракт Microsoft с иммиграционным и таможенным управлениями США; секретное сотрудничество IBM с нью-йоркским департаментом полиции по распознаванию лиц и расовой классификации в видеоматериалах видеонаблюдения и ряд других событий1 продемонстрировали, что, несмотря на наличие комиссий по этике, в области искусственного интеллекта систематически нарушаются не только декларируемые, но даже закрепленные юридически этические нормы.
Нужно отметить, что в целом выделяются три вида регулирования технологий. В первом случае не предусмотрено вообще никакого правового регулирования, соблюдение этических принципов является добровольным. Во втором случае применяется умеренное правовое регулирование, поощряющее или требующее технических корректировок, которые существенно не противоречат прибыли. Самый строгий вариант предполагает ограничительное правовое регулирование, запрещающее или строго контролирующее внедрение технологии. Как указывают некоторые эксперты [11], бум на создание огромного количества деклараций, кодексов и хартий по этике искусственного интеллекта, наблюдавшийся в 2017-2019 гг., связан, в первую очередь, с желанием пролоббировать выбор способов регулирования первого и второго типов.
Распространившийся в последнее время термин «этический искусственный интеллект» означает, что разработчики определяют и декларируют определенную систему принципов, которой они руководствуются при создании технологий. Тем самым демонстрируется добрая воля создателей, заявляющих в качестве своих целей «содействие прогрессу общества и человеческой цивилизации, устойчивому развитию природы и общества, на благо всего человечества и окружающей среды, а также повышение благо-
1 Сетевые акции протеста против этих событий: #TechWontBuildIt, #NoTechForICE, #Data4BlackLives.
Как проблема персональных данных меняет этику искусственного интеллекта?
состояния общества» [6]. Следовательно, строгая регламентация в форме юридических разрешений и запретов как будто бы становится избыточной, потому что разработчик уже сам взял на себя все этические проблемы.
Большинство комиссий и других организаций, занимающихся этической оценкой и экспертизой, созданы или возглавляются нынешними или бывшими руководителями технологических фирм. Так, Исследовательский институт данных и общества (Data & Society Research Institute) управляется сотрудником Microsoft и финансируется в основном из средств гранта Microsoft; Институт искусственного интеллекта Университета Нью-Йорка был учрежден при участии другого исследователя Microsoft и также частично финансировался Microsoft, Google и DeepMind; Стэнфордский институт искусственного интеллекта возглавляет бывший вице-президент Google и т.д. Тот факт, что деятельность исследовательских групп в области этики искусственного интеллекта финансировалась IT-компаниями и зачастую руководилась представителями бизнес-сообщества, привел к искажению результатов в пользу защиты прав производителей систем искусственного интеллекта. Кроме того, именно такие организации, как «Партнерство в сфере искусственного интеллекта» (Partnership on AI to Benefit People and Society), фактически оказались главным источником информации о потенциальных рисках и социальных последствиях применения новых технологий. Их мнение оказывает определяющее воздействие на политику в области искусственного интеллекта.
Так, в конце 2018 года Партнерство принимало участие в продвижении законопроекта о реформе уголовного правосудия в Калифорнии, который предполагал использование алгоритмической оценки риска при принятии решений до суда. Несколько участников Партнерства, несогласных с общей позицией, написали обращение в Судебный совет Калифорнии, отмечая, что использование разработанной в рамках этого законопроекта системы искусственного интеллекта для вынесения судебных решений может привести к дискриминации некоторых групп населения. Создавая иллюзию беспристрастности, система использует данные, например, полицейские протоколы, которые могут быть предвзятыми. Система основывается на статистических закономерностях, которые, в свою очередь, сделаны на основе некоторой выборки и имеют границы применимости и, строго говоря, не могут в обязательном
порядке быть распространены на всех членов общества. Авторы обращения отмечают, что «свобода человека не должна сводиться к алгоритму» [11]. В конечном итоге Партнерство пошло на уступку и включило в текст законопроекта пункт о необходимости участия судьи, и этот шаг был сделан во многом из-за того, что ни одно ведомство в Калифорнии так и не купило предложенную технологию.
Рассмотренный пример показывает, что существующая система этического анализа технологий искусственного интеллекта нуждается одновременно в независимых специалистах, не аффилированных с 1Т-корпорациями, способных проводить независимые исследования. Однако зачастую необходимые для этого компетенции можно получить именно в таких компаниях. Создание крупных ассоциаций, с одной стороны, помогает избежать конфликта интересов в конкретных ситуациях, в то же время такие объединения становятся сильным инструментом лоббирования этически спорных технологий и всегда выступают против выбора жестких форм регулирования.
Любопытно, что мы, по сути, имеем перед собой кейс влияния гражданского общества на внедрение технологии искусственного интеллекта. При этом гражданское общество представлено не луддитами, а независимыми профессионалами, способными разобраться в тонкостях действия технологии и публично озвучить свои опасения. Такая система противовесов может помочь частично снять противоречия и обеспечить соблюдение этических норм. То, что потребность в институтах гражданского общества в области искусственного интеллекта назрела, отмечают многие специалисты. Огромное количество приложений, собирающих данные пользователей, как оказалось, нарушают действующее законодательство, не говоря уже о новых практиках, не отраженных в законах. Никакие оправдания и декларации «этического искусственного интеллекта» не могут обойти обязательность юридических ограничений на внедрение технологий массового наблюдения и системного насилия.
«Корпоративно-академические альянсы» стали визитной карточкой Кремниевой долины, в которой наука и бизнес тесно связаны и часто неотделимы. И если в производстве инноваций эта связь становится драйвером развития, то в обсуждении деликатных гуманитарных проблем она становится источником предвзя-
Как проблема персональных данных меняет этику искусственного интеллекта?
тых и конъюнктурных решений. Сейчас мы видим, что в эти альянсы все чаще входят органы власти и армия. По иронии, именно в «тройной спирали» науки, бизнеса и власти Г. Ицкович и Г. Лей-десдорф [12] видели оптимальную модель инновационного процесса. Но в искусственном интеллекте нашего времени эти институты успешно сотрудничают в преодолении этических барьеров, охраняющих права и свободы граждан. Совет по оборонным инновациям Министерства обороны США, который разработал «Принципы этики ИИ»1, возглавляет Эрик Шмидт, занимавший до этого крупный пост в Google. В правление входят несколько руководителей из Google, Microsoft и Facebook, что вызывает явный конфликт интересов. Разработанные Советом рекомендации предлагают увеличение инвестиций в искусственный интеллект и внедрение систем «этического искусственного интеллекта», по совпадению разрабатываемых в компаниях, представленных в совете. Совет по инновациям «называет Пентагон «глубоко этической организацией» и предлагает распространить свою «существующую этическую систему» на ИИ. С этой целью Правление ссылается на исследовательские группы по этике ИИ в Google, Microsoft и IBM» [9]. В результате замыкания этого порочного круга, например, «Принципы этики ИИ» призывают избегать термина «справедливость» при этической оценке систем искусственного интеллекта и исключают из рассмотрения ряд проблем, в частности использование беспилотных летательных аппаратов для целенаправленного убийства человека. Рекомендации в целом направлены на снятие барьеров перед инновациями и передачу кодов программ Совету по оборонным инновациям.
Отдельного обсуждения заслуживает кадровая проблема в области этики искусственного интеллекта. Профессиональные философы представлены слабо. Многие эксперты не имеют базового образования или даже формального обучения в данной области. Мы видим в составах исследовательских групп и этических комиссий программистов, военных, инженеров, экономистов, социологов, врачей, но не философов. Означает ли это, что тысячелетние традиции философской этики неприменимы в решении таких проблем? Скорее, этот факт показывает незрелость самой этической экспертизы информационных технологий. Если биотехнологии, начиная с XX века, развивались в условиях строгого регулирова-
1 Сайт проекта https://innovation.defense.gov/ai.
ния и систематической оценки и за это время сложились серьезные философские традиции их гуманитарной экспертизы, то сфера информационных технологий развивалась свободно. Дух инноваций и предпринимательства, конкуренции и борьбы за идеи, так характерный для Кремниевой долины, лишь в последние годы столкнулся с тем, насколько серьезными могут быть философские проблемы. Осознание возможной катастрофичности гуманитарных последствий отдельных прорывных и захватывающих инноваций только сейчас приходит к производителям систем искусственного интеллекта. Причиной этого осознания стала не война машин, так красочно описанная фантастами предыдущего века, а неготовность ни производителей технологий, ни пользователей справиться с потоками персональных данных, все чаще выходящими из-под контроля.
Этические проблемы больших данных
Практически все документы, декларирующие этические принципы искусственного интеллекта, делают упор на проблеме данных. Можно выделить три основные проблемы, на которых фокусируются разработчики, а именно информированное согласие, безопасность и конфиденциальность данных. В большей степени в настоящее время достигнут консенсус относительно проблемы конфиденциальности данных, которая достаточно строго контролируется на законодательном уровне. Представители бизнеса активно выступают за смягчение правового регулирования в данной области, так как строгие требования конфиденциальности данных усложняют деятельность компаний, работающих в условиях цифровой экономики, большинство стран сохраняет требования обе-зличенности общедоступных данных. Основная сложность здесь связана с тем, что обезличенность данных не гарантирует их конфиденциальность. Например, судебные решения, которые выкладываются с закрытыми персональными данными, позволяют даже в крупных городах легко вычислить, о каких организациях или гражданах в них говорится. Сетевые следы, то есть информация о действиях человека в Интернете, также во многих случаях позволяют идентифицировать пользователя, который их оставил. Можно сказать, что юридически конфиденциальность данных подлежит защите, но фактически эти нормы регулярно нарушаются. Этот
Как проблема персональных данных меняет этику искусственного интеллекта?
факт, а также то, что в современной экономике доступ к данным напрямую влияет на конкурентоспособность многих компаний, приводит к лоббированию концепции информационного суверенитета, предполагающей возможность использования персональных данных человека при условии его информированного согласия.
Именно информированное согласие является центральной проблемой всех актуальных обсуждений этики искусственного интеллекта. Несмотря на многолетнюю практику использования этой формулировки, ее содержание остается слишком широким, и большинство экспертов сходятся во мнении о том, что в настоящее время согласие на обработку данных, которое дают пользователи, в подавляющем большинстве случаев не является информированным.
Само понятие информированного согласия во многих документах либо просто обозначено, либо описано достаточно широко. Достаточно подробные объяснения приводятся в документе, где вводится принцип «Прозрачность и объяснимость». Смысл этого принципа состоит в том, что люди должны знать, когда система искусственного интеллекта взаимодействует с ними и когда оказывает на них существенное влияние. Этот же принцип предполагает «ответственное раскрытие» данных, то есть предоставление сведений различным акторам, взаимодействующим с искусственным интеллектом. Пользователь должен обладать информацией о том, когда именно он взаимодействует с искусственным интеллектом, какие данные о нем собираются и какую степень влияния может оказывать на него система. Именно степень влияния, порог «значительного воздействия» оказывается краеугольным камнем этической экспертизы технологий, так как только при достижении этого порога применение системы начинает жестко регулироваться. Некоторая методологическая неопределенность связана с тем, что определение «значительности» воздействия зависит «от контекста, воздействия и применения рассматриваемой системы ИИ» [5].
Китай также включает информированное согласие в перечень основных принципов этики искусственного интеллекта. В программе «Beijing AI Principles» отмечается, что «заинтересованные стороны должны иметь достаточное информированное согласие о влиянии системы на их права и интересы» [6]. На данный момент Китай является безусловным лидером в использовании правительством данных граждан. В 2014 году был разработан проект соци-
альных кредитов, целью которого является регулирование делового и частного поведения граждан, наказания и поощрения, а также укрепление доверия к органам власти [13]. При этом иероглиф, обозначающий «кредит», в китайском языке имеет давнюю историю, восходящую к Конфуцию, и переводится также как «управление». По сути, проект социальных кредитов состоит в том, чтобы собрать данные о повседневной деятельности человека: покупках, активности в социальных сетях, компьютерных играх и т.д., оценить их как положительные или отрицательные и конвертировать в некоторое число по утвержденным правительством правилам. Использование собираемых данных для создания рейтинга социального доверия в ряде провинций Китая было направлено на введение ограничений на поездки в отдельных видах транспорта или бронирование отелей. В качестве результатов проекта ожидается повышение прозрачности деятельности всех организаций и органов власти, усиление социального контроля, расширение общественного участия, а в конечном итоге — усиление социального доверия к органам власти. Нужно понимать, что данный проект вводился на фоне радикального снижения доверия к власти и был призван обеспечить прозрачность принятия решений. Однако сейчас, в 2020 году, можно видеть, что проект воспринимается как «брак между коммунистическим надзором и капиталистическим потенциалом» [14].
Реальная практика информированного согласия состоит в том, что пользователь достаточно формально принимает условия системы, не осознавая, какие именно его персональные данные будут применены, для решения каких задач и в каких ситуациях. Кроме того, употребление данных о пользователе и его активности эффективно монетизируется, однако сам человек не получает никакой компенсации, а наоборот — часто платит за использование приложений и устройств. Поскольку в большинстве случаев оценить справедливый размер компенсации за применение данных не представляется возможным, то часто «единственной возможной компенсацией является получение доступа к различным интернет-ресурсам: социальным сетям, обучающим и развлекательным ресурсам и другим онлайн-платформам, а также возможность использования различных высокотехнологичных продуктов» [1, с. 78].
Крайне важным фактом является также то, что, согласно сложившейся традиции, ответственность за сохранность персональ-
Как проблема персональных данных меняет этику искусственного интеллекта?
ной информации возлагается в основном на самого пользователя. Давая согласие, он добровольно берет на себя ответственность за негативные последствия. Большинство потребителей, давая согласие на обработку своих данных, считают, что это необходимо для работы системы, которая без этих данных не сможет выполнять свои функции [1, с. 154], хотя в большинстве случаев приложения используют лишь малую часть собираемой информации. То есть парадокс информированного согласия состоит в том, что без специальных знаний и владения цифровыми навыками на высоком уровне человек не может быть информирован о том, согласие на что он дает. Поскольку в реальности практически никто из пользователей не в состоянии спрогнозировать, какие именно данные о нем получит система искусственного интеллекта и как они могут быть использованы, то совершенно точно можно утверждать, что права человека нарушаются. Особенно это касается тех случаев, когда человек не может по объективным причинам отказаться от взаимодействия с искусственным интеллектом, например, если речь идет о медицинском реанимационном оборудовании или системах отслеживания нарушителей карантина. Согласие в этом случае, будучи формально добровольным, фактически является вынужденным. По сути, утверждая свободу выбора пользователя, который может сам решать, какие программы и приложения использовать и разрешать ли им собирать его данные, современная индустрия искусственного интеллекта не повышает ценности человеческой свободы, а перекладывает на нее ответственность.
Разные страны предлагают свои подходы к решению проблемы, опираясь на разные этические системы. Например, если правительство Германии первоначально выступило за ужесточение соблюдения прав граждан и введение жесткой ограничительной политики в отношении создания и коммерциализации баз данных, то власти Великобритании, наоборот, действуют в рамках протестантской этики и принципа индивидуальной ответственности, отстаивая свободу рыночной экономики и возлагая ответственность за безопасность данных на самих пользователей. Если базы данных — это новые «глобальные товары», то, увы, они же и новые символы эксплуатации. Т. Эдисон, по легенде, поставил у себя в доме дверь, открывая которую, каждый гость работал вместо насоса и закачивал в резервуар определенное количество воды. В эпоху больших данных каждый раз, совершая какие-либо дей-
ствия в сети, мы платим за то, чтобы поработать и принести доход небольшому кругу разработчиков.
Одним из вариантов повышения осведомленности человека о сборе данных о нем является механизм дифференцированного согласия на обработку персональных данных [15]. При таком подходе пользователь может разрешать или запрещать сбор отдельных видов данных. Или, например, он может заплатить определенную сумму за пользование программой, отказавшись предоставлять ей свои данные. На первый взгляд при этом его положение ухудшается, так как ему приходится платить за продукт, который до этого был для него бесплатным, но фактически такие отношения признают ценность персональных данных и формируют представление о правах на распоряжение ними. Как справедливо утверждает Т. Бернерс-Ли, подаривший нам в свое время WWW, от реакции людей на злоупотребления их данными зависит то, оправдает ли Интернет связанные с ним ожидания добра и свободы или приведет нас к цифровой антиутопии [15].
Пожалуй, главным социальным достижением больших данных является то, что прозрачность общества является двусторонней. Казалось бы, доступность данных о любом человеке в любой момент времени будет работать как фактор усиления полицейского государства и приблизит эпоху «большого брата», или тоталитарного контроля над индивидом. И действительно, в литературе 2000-х гг. часто можно встретить предупреждения об ассиметрич-ной потере конфиденциальности персональных данных в условиях сетевой открытости [16]. Но уже сейчас можно сказать, что технологии больших данных делают более открытыми сами инструменты власти, процессы принятия решений и способы их реализации. Не только государство узнает все о гражданах, но и граждане начинают видеть, как работает власть. Тотальное присутствие общества в социальных сетях делает видимыми все уровни власти, и этот факт уже нельзя игнорировать. В этом смысле тотальная открытость плохо соотносится с тоталитарностью в классическом понимании этого слова, и по-прежнему «солнечный свет — лучшее дезинфицирующее средство» [17]. Да, политические партии могут использовать персональные данные пользователей для распространения таргетированной рекламы, но эти факты очень сложно скрыть в прозрачном мире, и, будучи обнаруженными, они подрывают доверие к тем, кто их использует. Можно предполо-
Как проблема персональных данных меняет этику искусственного интеллекта?
жить, что в мире открытых данных нужно скорее бояться не диктатуры, а размывания доверия и уважения к любой власти, поскольку в этих условиях традиционные способы сакрализации власти и установления ее авторитета не работают.
Несмотря на серьезность этических проблем, связанных с обработкой персональных данных, преодоление сложившегося кризиса возможно. В условиях, когда национальные комиссии по этике и объединения разработчиков лоббируют свои экономические или геополитические решения, создание авторитетных международных объединений может стать стимулом к выработке единых подходов к пониманию регулирования систем искусственного интеллекта. Вне всякого сомнения, попытки вывести технологии искусственного интеллекта из-под строгого правового регулирования будут способствовать нарушению прав человека. Необходимо усиливать юридическую ответственность и подотчетность компаний, производящих инновации в этой сфере. Именно этическая экспертиза является основным инструментом для определения того, в каком именно порядке, облегченном или строгом, будет происходить регулирование внедрения и применения технологии, в связи с чем крайне важным является проведение такой экспертизы компетентными и независимыми от производителей экспертами. И наконец, вряд ли можно приветствовать простой перенос практик из области биоэтики в сферу искусственного интеллекта без дополнительного тщательного изучения его гуманитарных аспектов и философской рефлексии происходящих процессов. Удивительная ситуация, когда философскими по своей сути проблемами занимаются специалисты в области информационных технологий, может, и порадовала бы гуманитариев, но осознание того, что из дискурса фактически устраняются профессионалы и при этом создаются документы, буквально определяющие фундаментальные изменения в развитии общества, приводит к серьезным опасениям. Отсутствие в официальных документах результатов хоть сколько-нибудь профессионального исследования изменений этических и моральных норм, происходящих в эпоху всеобщей прозрачности, ставит под сомнение достижимость декларируемых в них целей улучшения качества жизни человека и гармонизации общества.
Таким образом, быстрое развитие технологий больших данных актуализировало этические исследования искусственного интеллекта и дало начало многостороннему диалогу по поводу свободы
и ответственности, приватного и публичного и целого ряда других вопросов. Включение в эти дискуссии IT-специалистов, политиков, экономистов, военных, юристов можно рассматривать в том числе как результат объективного запроса на прояснение гуманитарных аспектов массового внедрения систем искусственного интеллекта. Однако для полноценной и ответственной гуманитарной экспертизы этих технологий необходимо проведение фундаментальных исследований изменений этических и моральных норм и систем в эпоху всеобщей прозрачности и системное привлечение к работе этических комиссий специалистов в области социально-гуманитарного знания.
Литература
1. Большие данные в социальных и гуманитарных науках: Сб. обзоров и рефератов / РАН. ИНИОН. Центр науч.-информ. исслед. по науке, образованию и технологиям; отв. ред. Гребенщикова Е. Г. М., 2019. 193 с. (Big data in the social and human sciences: Sat. reviews and abstracts / RAS. INION. Center for Scientific Information researched in science, education and technology; open ed. Grebenshchikova E. G. M., 2019. 193 p.)
2. OhEigeartaigh, S. S. Overcoming Barriers to Cross-cultural Cooperation in AI Ethics and Governance / Sean S. OhEigeartaigh, Jess Whittlestone, Yang Liu, Yi Zeng, Zhe Liu // Philosophy &. Technology. 2020. Vol. 33. URL: https://link.springer.com/content/pdf/10.1007/s13347-020-00402-x.pdf.
3. Klenk, M. How Do Technological Artefacts Embody Moral Values? // Philosophy &. Technology. 2020. URL: https://link.springer.com/ article/10.1007/s13347-020-00401 -y#citeas.
4. Bone, ./.The social sciences and the web: From «lurking» to interdisciplinary «big data» research / Bone J., Emele Ch., Abdul A., Coghill G., Pang Wei // Methodological innovations. 2016. Vol. 9. P. 1-14.
5. AI Ethics Principles / Australian Government, Department of Industry, Science. URL: https://www.industry.gov.au/data-and-publications/ building-australias-artificial-intelligence-capability/ai-ethics-framework/ ai-ethics-principles.
6. Beijing AI Principles. URL: https://www.baai.ac.cn/news/beijing-ai-principles-en.html.
7. On Artificial Intelligence — A European approach to excellence and trust. URL: https://ec.europa.eu/info/sites/info/files/commission-white-paper-artificial-intelligence-feb2020_en.pdf.
8. UNESCO. Report of Comest on Robotics Ethics. URL: https://unesdoc. unesco.org/ark:/48223/pf0000253952.
9. Defense Innovation Board. Recommendations. URL: https://innovation. defense.gov/Recommendations.
Как проблема персональных данных меняет этику искусственного интеллекта?
10. Cowls J., Floridi L. Prolegomena to a White Paper on an Ethical Framework for a Good AI Society. Препринт SSRN, 2018. URL: https://papers.ssrn. com/sol3/papers.cfm?abstract_id=3198732.
11. Ochigame R. The invention of «ethical AI»: how big tech manipulates academia to avoid regulation // The Intercept. 2019. URL: https://theintercept.com/2019/12/20/mit-ethical-ai-artificial-intelligence.
12. Etzkowitz H. The Triple Helix — University — Industry — Government Relations: a Laboratory for Knowledge-Based Economic Development / H. Etzkowitz, L. Leydesdorff // EASST Review. 1995. No. 14. P. 14-19.
13. Chorzempa M. China's social credit system: a mark of progress or a threat to privacy? / M. Chorzempa, P. Triolo, S. Sacks // Policy Briefs PB 18-14, Peterson Institute for International Economics, 2018. URL: https://www. piie.com/system/files/documents/pb18-14.pdf.
14. Botsman R. Big data meets Big Brother as China moves to rate its citizens // Wired. 2017. URL: https://www.wired.co.uk/article/chinese-government-social-credit-score-privacy-invasion.
15. Contract for the Web. URL: https://9nrane41lq4966uwmljcfggv-wpengine.netdna-ssl.com/wp-content/uploads/Contract-for-the-Web-3. pdf.
16. Andrejevic M. ISpy: Surveillance and Power in the Interactive Era. Lawrence, KS: University Press of Kansas, 2007. 325 p.
17. Brandeis L. D. Other People's Money: And how the Bankers Use it. New York: F. A. Stokes, 1914. 223 p.