УДК 070 EDN WMNHIF
DOI 10.17150/2308-6203.2022.11(4).680-694 Научная статья
Искусственный интеллект в российских медиа и журналистике: к дискуссии об этической кодификации
Лукина М.М.1Н , Замков А.В.1 , Крашенинникова М.А.1 , Кульчицкая Д.Ю.2 j>
1 Московский государственный университет имени М.В. Ломоносова, г Москва, Российская Федерация
2 Новый болгарский университет, г. София, Болгария
Автор, ответственный за переписку: Лукина М.М., maria_lukina@list.ru
Аннотация. Искусственный интеллект постепенно становится неотъемлемой частью работы российских СМИ и журналистов, внедряясь в разные сферы медийных практик, в том числе, в поиск и верификацию информации, распознавание речи, звуков и изображений, выделение приоритетных тематик, создание текстов и их таргетированную дистрибуцию и др. Российскими лидерами в медиасфере являются Интерфакс, Sports.ru, РИА Новости. Технологии искусственного интеллекта проникают также в работу журналистов, замещая их отдельные рутинные действия. В этой связи перед профессиональным медийным сообществом неизбежно встают вопросы о новых вызовах этического регулирования, об их корреляции с ежедневными вопросами морального выбора редакций и журналистов. Опираясь на историю зарубежного и отечественного дискурса, касающегося философско-этических проблем технологий искусственного интеллекта, проанализировав выработанные в разных странах кодексы этического регулирования ИИ, изучив научные публикации исследователей, посвященные этическим проблемам, встающим перед редакциями и журналистами в процессе внедрения алгоритмических решений, авторы выделяют основные положения, которые необходимо учесть в процессе выработки этических норм использования искусственного интеллекта в медиа и журналистике. К основным вопросам, требующим обязательной кодификации, авторы считают необходимым отнести: транспарентность со стороны редакций и право аудитории на информацию о применении искусственного интеллекта в редакционных практиках, запрет на передачу полномочий искусственному интеллекту в вопросах нравственного выбора при подготовке медиаконтента, совместную ответственность редакции и разработчиков программного обеспечения за последствия работы систем искусственного интеллекта, определение круга потенциальных тем, к которым этически неприемлемо применение искусственного интеллекта и др. Данная статья является приглашением к дискуссии медийного и академического сообщества о необходимости этической кодификации применения технологий искусственного интеллекта в медиа и журналистике.
Вклад авторов. Лукина М.М., Замков А.В. — разработка концепции исследования, теоретический дискурс, написание текста.
Крашенинникова М.А., Кульчицкая Д.Ю. — анализ этических кодексов, написание текста.
Ключевые слова. Искусственный интеллект, этика, журналистика, медиа, редакция, средства массовой информации.
Информация о статье. Дата поступления 30 сентября 2022 г.; дата поступления после доработки 13 октября 2022 г.; дата принятия к печати 19 октября 2022 г.; дата онлайн-размещения 15 декабря 2022 г.
Original article
Artificial Intelligence in the Russian Media and Journalism: The Issue of Ethics
Maria M. Lukina1® G, Andrey V. Zamkov1 , Maria A. Krasheninnikova1 ©, Diana Yu. Kulchitskaya2 ©
1 Lomonosov Moscow State University, Moscow, Russian Federation
2 New Bulgarian University, Sofia, Bulgaria
Corresponding author: Maria M. Lukina, maria_lukina@list.ru
Abstract. Artificial intelligence is gradually being integrated into the work of Russian media and journalists, spreading to various areas of media practices, in particular, information search and fact-checking; speech, sound, and image recognition; prioritization of topics, creation of texts, and their targeted distribution, etc. Such Russian media companies as Interfax, Sports.ru, RIA Novosti are regarded as leaders in this field. With the development of AI, the professional media community inevitably faces new challenges in the ethical regulation of media practices, their correlation with the daily moral issues for editors and journalists.
Based on the rich history of foreign and domestic discourse concerning the philosophical and ethical problems of artificial intelligence, as well as analyzing the codes of ethical regulation of AI developments in different countries, the authors highlight the main provisions that need to be taken into account in the process of developing ethical standards for the use of artificial intelligence in media and journalism. The main issues that require mandatory codification include: preservation of the right of the audience to receive information about the interaction with artificial intelligence and transparency in this area on the part of editorial offices; a ban on the transfer of powers to artificial intelligence in matters of moral choice when preparing media content; joint responsibility of the editorial board and software developers for the consequences of the work of artificial intelligence systems, determining the range of potential topics for which the use of artificial intelligence is ethically unacceptable, etc. These recommendations are an invitation to a discussion in media and academic communities about the need for ethical codification of the use of artificial intelligence technologies in media and journalism.
Contributorship. M.M. Lukina, A.V. Zamkov — development of the research concept, theoretical discourse, the text.
M.A. Krasheninnikova, D.Yu. Kulchitskaya — analysis of ethical codes, the text.
Keywords. Artificial intelligence, ethics, journalism, media, newsroom, mass media.
Article info. Received September 30, 2022; revised October 13, 2022; accepted October 19, 2022; available online December 15, 2022.
Введение
Стратегии по развитию и внедрению искусственного интеллекта (ИИ) в разные отрасли экономики регулярно обсуждаются правительствами, индустриальными и общественными организациями разных стран мира. Параллельно и неизбежно появляется актуальный запрос на этическое регулирование, как в ходе международных и национальных обсуждений по использованию ИИ, так и в качестве инициатив снизу — от 1Т-гигантов или общественных организаций. Например, в США уже разработано более 20 кодексов этического регулирования ИИ, чуть меньше (19) в Евросоюзе.
Такой же процесс начался и в России. В октябре 2021 г. в Москве крупнейшие российские 1Т-игроки — Яндекс, СБЕР, Ростелеком, VK, МТС и другие — подписали «Национальный кодекс этики искусственного интеллекта». Это событие в рамках I Международного форума «Этика искусственного интеллекта: начало доверия» активно освещалось в прессе. Основные акценты в кодексе сделаны на антропоцентричности, предосторожности, подконтрольности, ответственности, нравственности, недискриминации и пр. Авторы данного кодекса предполагают, что в ближайшие месяцы к нему присоединятся еще около 100 организаций из государственного, научного и коммерческого сектора.
Искусственный интеллект все интенсивнее проникает в работу СМИ. Поиск информации, распознавание речи, звуков и изображений, выделение приоритетных аспектов тематик, создание текстов и их тар-гетированное распространение — вот неполный перечень внедрения
элементов ИИ в редакционные практики. Первыми осваивать технологии искусственного интеллекта для создания контента стали крупные западные медиа — Associated Press, Reuters, Bloomberg, Los Angeles Times и др. Российскими лидерами в сфере внедрения ИИ являются Интерфакс, спортивное интернет-издание Sports.ru, РИА Новости и др. Но и прочие российские медиакомпа-нии, в том числе отдельные локальные издания, начинают рассматривать возможность внедрения таких высокотехнологичных решений.
Однако начинать обсуждать внедрение редакциями искусственного интеллекта необходимо неразрывно и параллельно с этической стороной применения технологий ИИ в повседневных медиапрактиках, возможно, актуализируя имеющиеся профессиональные этические кодексы журналиста, которые созданы в доцифровую эпоху, или создавая новые правила.
В статье обобщаются на теоретическом и прикладном уровне этические проблемы, которые возникают в связи с применением технологий в целом и искусственного интеллекта, в частности, в разных сферах жизни общества. Особое внимание уделяется этическому аспекту применения алгоритмов и нейросетей в медиа и журналистике. Теоретические положения базируются на анализе вопросов взаимодействия машины и человека, которыми в разные годы интересовались мыслители и ученые. Авторы уделяют серьезное внимание существующим этическим кодексам, касающимся применения искусственного интеллекта, принятым в разных странах мира.
Цель статьи — открыть академическую и профессиональную дискуссию о необходимости этической кодификации применения технологий искусственного интеллекта в разных сферах медийных практик, в том числе в работе журналистов. Выводы и рекомендации, предложенные авторами,основаны на анализе научных трудов отечественных и зарубежных исследователей, посвященных внедрению и эксплуатации технологий, в том числе взаимодействию человека с системами искусственного интеллекта, анализе имеющихся этических регламентов и кодексов, а также трудов, поднимающих вопросы, проблемы и вызовы, встающие при применении технологий искусственного интеллекта в редакционных практиках и работе журналистов.
Технологии, искусственный
интеллект и этика:
теоретический дискурс
Данный раздел посвящен академическому дискурсу, в котором рассматриваются вопросы взаимодействия человека и технологий в контексте этических ценностей. Общим заблуждением до недавних пор являлось представление о феномене технологии как о чисто утилитарном и сравнительно пассивном явлении, к тому же нейтральном по отношению к идеологии, политике, а также моральным ценностям. Однако опыт внедрения технологий искусственного интеллекта в новую область гуманитарных вычислений показал, что замена рутинных практик высокими технологиями имеет долгосрочные и неоднозначные последствия, в том числе этического характера. Дискуссионный вопрос
«Будут ли технологии определять наше развитие или мы будем участвовать в развитии технологий?» [1], как оказалось, не является риторикой технологического детерминизма, а имеет глубокие корни в истории социальных отношений [2].
Попытки осмысления и обсуждения социальных и этических проблем сопровождали всю историю технического прогресса на уровне философского, научного и публичного дискурса, начиная с античности и до наших дней [3]. Безусловно, любой обзор этих дискуссий будет неполным, поэтому мы ограничимся упоминанием лишь наиболее значимых фрагментов.
Предыстория отечественного дискурса по философско-этическим вопросам взаимодействия человека и технологий включает, в первую очередь, статьи Н. Бердяева, освещающие этические вопросы взаимоотношений человека и машины [4; 5]. Понятие машины используется в работах Бердяева в широком, обобщенном философском смысле как система тотальных отношений механицизма, которые разрушают органическую целостность человека. Написанные в эпоху Первой мировой войны, эти работы, вероятно, одними из первых поднимают вопрос о возможной враждебности техники как средства самоуничтожения человека. В дальнейшем философ снова возвращается к теме взаимоотношений человека и машины, подчеркивая готовность человека изменить свой образ ради обезличенного предмета его «последней любви» — техники, а причину этого он усматривает в смещении баланса ценностей к полюсу рационализма, что превращает человека в универ-
сальное средство производства вещей [5, с. 233-240].
Анализируя более поздний отечественный дискурс, нельзя пройти мимо зарождения проблематики искусственного интеллекта в СССР в 50-е гг. ХХ в. на фоне проникновения идей кибернетики Норберта Винера в социально-гуманитарное знание. Винер уделил большое внимание этическим вопросам новой дисциплины, особенно в своем последнем вышедшем посмертно сочинении «Творец и робот» [6]. Уже тогда ему было ясно, что любые технологии искусственного интеллекта являются технологиями двойного назначения. В связи с этим он выразил обеспокоенность возможностью применение «разумных» машин как в военной индустрии, так и в боевых операциях. Возможное решение проблемы Винер видел в выводе критических направлений научных исследований из-под контроля военно-промышленного комплекса и создания института социального контроля (экспертизы).
Сегодня, когда первичная волна кибернетического хайпа почти спала, проблема отдаленных гуманитарных последствий массового распространения искусственного интеллекта оказалась вовсе не надуманной, и многие этические предостережения умозрительного характера получили конкретные обоснования. Одним из примеров таких гуманитарных последствий может служить резонансная история с системой «Терак-25» — серии инцидентов с летальным исходом из клинической практики радиационной терапии [7]. К сожалению, наряду с известными достижениями множатся примеры катастроф и конфлик-
тов, связанных с технологиями искусственного интеллекта, поэтому следует ожидать, что актуальность создания средств этического контроля отношений с ИИ будет только расти [8].
Очередной всплеск интереса к проблемам этой научно-технической области наступает после революции микроминиатюризации в электронике. Прорыв в быстродействии машин позволил имитировать отдельные функции высшей нервной деятельности человека и даже конкурировать с ним с помощью простых, но быстрых алгоритмов перебора. Так или иначе, но последовал новый цикл обсуждений экзистенциальных проблем ИИ. Среди наиболее известных подходов — этические кодексы для разработчиков и пользователей систем [9], этический аудит [8], системы распределения ответственности в человеко-машинных коммуникациях [10; 11], медийные рекомендательные системы [12], этические средства цифровых экосистем [13] и т.п.
Следует отметить, что два последних упомянутых подхода связаны с ИИ-решениями в сфере автоматизации медиа, которые сегодня получили статус «онтологического сдвига» в робожурналистике. Его сущность выражается в изменении ролевых отношений между человеком и машиной в системе цифровых коммуникаций, а также оценок этих изменений общественным мнением [14; 15]. Машинная часть системы изначально проектировалась как медиатор для обмена сообщениями, однако постепенно ее функция трансформировалась в коммуникатора [16]. Представленная разнообразными программа-
ми-генераторами новостей «новая роль» оказалась доминирующей, а некоторые исследователи медиа отмечают, что люди стали склонны воспринимать программы как полноценных «социальных акторов» [17; 18]. Подобные сдвиги говорят о том, что усиление влияния технологий ИИ на уровне медийных практик ставит под сомнение традиционный приоритет антропоцентрических допущений теории медиа.
В связи с развитием разнообразных технологий возникло такое понятие, как технологическая этика, или техноэтика. Под этим термином понимают применение этических законов к технологическим новациям. Этика искусственного интеллекта в свою очередь является одним из направлений в рамках техноэтики. В контексте рассуждений об этике ИИ в сфере медиа и журналистики стоит сказать, что профессиональная деятельность журналиста сейчас затрагивает множество разных аспектов, связанных с технологиями. В связи с этим журналистам приходится учитывать эти трансформации, а также корректировать и уточнять некоторые положения этических кодексов.
Этические кодексы
по использованию
искусственного интеллекта
Регуляторы по использованию ИИ, как правило, подразумевают две разные формы этического контроля — робоэтику, которая в большей степени обращена к вопросам создания и эксплуатации систем ИИ человеком, и машинную этику, суть которой сводится к гуманизации поведения искусственных моральных агентов. На протяжении последних лет в мире издается все больше
этических кодексов, направленных на осмысление возможностей ИИ по отношению к человеку и относительному регулированию моральных критериев его эксплуатации. Этические аспекты использования ИИ в разных отраслях экономики все чаще затрагиваются и в различных документах, обобщающих на сегодняшний момент современный опыт взаимодействия человека и «умной машины». В частности, вопросы этики были затронуты и в «Индексе искусственного интеллекта 2022», подготовленным Стэнфордским университетом1. Среди магистральных тем данного аналитического отчета — возрастающая роль этического регулирования искусственного интеллекта, в том числе прозрачность его использования, справедливость и непредвзятость. В отчете также делается акцент и на правовое поле существования ИИ. Так, самое большое число законов в области ИИ было принято в 2021 г. в США, Испании и Великобритании. Россия также является одним из лидеров по объему правового регулирования в области ИИ.
В мире на данный момент существует несколько десятков различных этических кодексов, которые так или иначе регулируют сферу применения искусственного интеллекта. Некоторые из них сформулированы государственными организациями, а некоторые отражают то, как крупные корпорации видят этические вопросы взаимодействия машины и человека. Среди самых значимых национальных и наднациональных
1 Artificial Intelligence Index Report 2022. URL: https://aiindex.stanford.edu/wp-content/ uploads/2022/03/2022-AI-Index-Report Master.pdf.
этических кодексов стоит выделить так называемые «Принципы искусственного интеллекта» в США, Китае, а также в Европейском союзе. США и Китай являются признанными лидерами в сфере развития систем ИИ, поэтому их регламенты представляют собой особый интерес. В этих документах рассматриваются самые разные аспекты использования алгоритмов. Например, в документе, разработанном в США в 2019 г., выделены такие базовые принципы работы ИИ, как общественное доверие к алгоритмам, участие общества в регулировании алгоритмов, а также прозрачность в использовании систем ИИ. Всего в документе сформулированы десять принципов2.
В Китае одним из основных этических кодексов считается тот, который разработан в 2019 г. Китайской академией по искусственному интеллекту3. В этом регламенте в довольно лаконичном стиле изложены основные положения, которые китайские ученые считают важными в сфере ИИ. Первая часть документа посвящена разработке систем ИИ, вторая связана с его использованием, а третья — с управлением подобными системами. Регламент также раскрывает технические детали, связанные с тем, кто является разработчиком этих принципов и какие государственные организации подписали документ. Авторы данного регламента отмечают, что при
2 American AI initiative: the US strategy for leadership in artificial intelligence. URL: https:// oecd.ai/en/wonk/the-american-ai-initiative-the-u-s-strategy-for-leadership-in-rtificial-intelligence.
3 Beijing AI principles. URL: https://link. springer.com/content/pdf/10.1007/s11623-019-
1183-6.pdf
разработке систем искусственного интеллекта необходимо соблюдать принципы гуманизма и ориентироваться на общественное благо. Кроме того, следует опираться на этичные алгоритмические решения, а также учитывать риски, которые могут возникнуть в связи с внедрением ИИ в будущем. Отдельное внимание уделяется принципам разнообразия и инклюзивности, которым нужно следовать при разработке алгоритмов и нейросетей.
Европейские рекомендации по этическим регламентам применения искусственного интеллекта является наиболее детальным по сравнению с двумя предыдущими документами4. В этом объемном документе излагаются вопросы, связанные с конфиденциальностью при использовании искусственного интеллекта, экономическим благополучием граждан и пр. По мнению авторов документа, надежные системы ИИ обладают тремя ключевыми характеристиками — законностью, этичностью и надежностью. Этические принципы, которые предлагает Европейский союз, базируются на представлениях об автономности человека, необходимости предотвращения возможного вреда от ИИ, справедливости и принципа объяснимости.
На статье немецкого исследователя Тило Хагендорффа «Этика искусственного интеллекта: разбор кодексов» [19] стоит остановится подробнее. Ученый подверг тщательному анализу 22 кодекса, посвященных этическим вопросам в области искусственного интеллекта. Он отметил,
4 Ethics guidelines for trustworthy AI. 2019. URL: https://op.europa.eu/en/publication-detail/-/publication/d3988569-0434-11ea-8c1f-01aa75ed71a1.
что чаще всего в них затрагиваются вопросы, связанные с открытостью и справедливостью работы алгоритмов, кибербезопасностью и персональными данными пользователей, прозрачностью и отсутствием дискриминации при функционировании систем искусственного интеллекта. В то же время, анализ показал, что в этических кодексах практически не учитывается необходимость независимой научной экспертизы при возникновении спорных ситуаций. Как справедливо отмечает Хагендорфф, многие исследования в этой сфере спонсируются корпорациями, которые являются разработчиками искусственного интеллекта, что часто приводит к конфликту интересов. Ученый отметил еще одну проблему, которой практически не уделяется внимание в таких документах, — использование алгоритмических решений для манипуляций и политической пропаганды. Наконец, в существующих этических документах упускается из виду необходимость соблюдения принципа разнообразия при создании коллективов, разрабатывающих и совершенствующих системы ИИ, нейросети. В таких исследовательских группах должны участвовать представители разных стран, а также соблюдаться гендерный баланс. На данном этапе, отметил автор, алгоритмы создаются преимущественно мужчинами, а национальное разнообразие вовсе не рассматривается в качестве приоритета. Хагендорфф выделяет еще одну проблему, связанную с авторством этических кодексов. Как правило, это специалисты из компьютерной индустрии, а не люди, имеющие философский или академический бэкграунд. По мнению ученого, необходимо встроить
этику искусственного интеллекта в более широкий аксиологический контекст, что поможет уйти от излишней техноцентричности некоторых этических кодексов.
В настоящее время этическое регулирование ИИ является одной из магистральных тем для обсуждения на самых разных уровнях — от индустриального до академического и политического сообществ. Яркий пример — принятый в октябре 2021 г. в России первый «Национальный кодекс этики искусственного интеллекта»5, который обсуждался крупнейшими российскими IT-игроками. Основные положения этого кодекса отражают общепринятые моральные паттерны и демонстрируют человеко-ориенти-рованный и гуманистический, а также риск-ориентированный подходы. Данный кодекс основан на уважении автономии и свободы воли человека, его недискриминации, а также на ответственном отношении к закону и его соответствии, оценке рисков гуманитарного воздействия, предосторожности и не причинении вреда, идентификации ИИ в общении с человеком, информационной безопасности и безопасности работы с данными и т.д.
Безусловно, применение настоящего Кодекса может быть весьма широким и отражать практики различных экономических субъектов, в том числе средства массовой информации, к которым вполне применимы все перечисленные выше положения. Однако необходимо отметить, что социальная ориентированность медиа, их общественная миссия и способность воздействовать на аудиторию, производить
5 Кодекс этики в сфере искусственного интеллекта. 2021. URL: http://cdn.tass.ru/data/ files/ru/kodeks-etiki-ii.pdf.
разного рода эффекты все же подразумевают более «тонкую» настройку этического регулирования, касающегося использования искусственного интеллекта, в том числе в области генерации и дистрибуции текстов, рекомендательных сервисах и пр. Отметим также, что в целом возможности применения ИИ в редакционных практиках и их влияние на человека еще не до конца осознаны профессиональным и академическим сообществом, а вопросы этики в контексте использования в медиа до сих пор не попали в топовые темы профессионального медийного сообщества.
Искусственный интеллект
в медиа: трудности
этического регулирования
Медиа и журналистика уже не первый год используют технологические инновации, связанные с искусственным интеллектом. От отдельных экспериментов редакции и конкретные журналисты постепенно переходят к более серьезному и осмысленному внедрению в свои рабочие практики систем с элементами искусственного интеллекта. Как отмечают исследователи из Института Reuters, наиболее часто в журналистской среде встречаются такие алгоритмические решения искусственного интеллекта, которые помогают в процессе сбора, обработки и проверки источников информации, автоматизации процессов в ньюсруме (расстановка тегов, расшифровка записей и пр.), настройке рекомендации для пользователей на сайте, а также способны генерировать тексты [20].
Так как применение технологий искусственного интеллекта до сих
пор не стало общепринятым явлением в большинстве редакций, вопрос о внесении изменений в этические кодексы и редакционные стандарты пока активно не поднимается профессиональным медийным сообществом. Однако размышления о возможных профессиональных этических конфликтах, связанных с применением ИИ в редакциях и журналистами, и о потенциальных моральных рисках можно встретить и в экспертных оценках, и в академическом дискурсе.
Так, например, обсуждается вопрос о влиянии алгоритмов ИИ на одну из фундаментальных ценностей в сфере журналистской этики, которой является объективность и непредвзятость. Эти категории, закрепленные в кодексах журналистской этики всех стран мира, подразумевают умение журналиста быть над схваткой, освещать все точки зрения, не занимать чью-либо сторону, уйти от субъективных оценок, что в жизни достичь крайне трудно. Эту задачу смогут решить системы искусственного интеллекта, а в редакциях смогут избежать субъективной оценки, так как для сбора информации и генерации текстов были применены алгоритмы, а не труд человека, наделенного собственными взглядами и стереотипами. В этом случае можно говорить о так называемой «механистической объективности» [21].
Технооптимисты считают, что ИИ может обладать универсальной объективностью, так как исключается человеческий фактор. Однако многие ученые не принимают такой подход и считают его слишком идеалистичным. Так, Карлсон [там же] отмечает, что алгоритмам не стоит приписывать универсальную объективность,
так как на практике они также могут допускать ошибки, однако природа этих промахов иная по сравнению с автором-человеком. Исследователь считает, что наделение алгоритмов некой механистической объективностью несет в себе определенные риски, может привести в тому, что само понятие профессиональной объективности в деятельности журналиста начнет размываться.
В отличие от технооптимистов приверженцы более критического отношения к технологическим новациям предлагают концепцию так называемой «алгоритмической предвзятости» (по англ. algorithmic bias). Согласно этой концепции, алгоритмические решения могут способствовать проявлению субъективности в силу особенности работы того или иного алгоритма [22].
Еще одна проблема, которую необходимо решить при разработке этического кодекса, связанного с применением ИИ в современной журналистике, — это маркировка текстов и продуктов, созданных с помощью алгоритмических решений. Проведенные российскими учеными исследования доказали, что не все редакции в этом плане транспарентны, не все из них считают необходимым знакомить своих читателей с тем, что они потребляют новости, написанные с использованием автоматических генераторов контента [23; 24].
Необходимо также обратить внимание на потенциальную возможность диффамации в тексте, который написан алгоритмом. О такой угрозе задумываются специалисты из разных стран. Например, группа исследователей из США [25] рассуждает о том, кто должен нести ответственность в том случае, если
в материале, созданном машиной, содержится информация, порочащая честь и достоинство одного человека или группы людей. Такие рассуждения находятся в области теоретических дискуссий, так как в реальной практике пока подобные прецеденты не встречались. Однако в недалеком будущем специалистам по медиаправу, возможно, придется столкнуться и с такими казусами.
Хотя применение алгоритмов и нейросетей в журналистике пока не привело к выработке универсальных этических правил, можно с уверенностью говорить о том, что этическая сторона этих технологических новаций привлекает все больше внимания как журналистов-практиков, так и медиаисследователей. Так, состоявшаяся в конце 2021 г. на базе Лондонской школы экономики онлайн-конференция была посвящена исключительно этике искусственного интеллекта и тому, как она соотносится с профессиональными этическими правилами журналиста. Среди выступающих были не только ученые, но и представители индустрии. Осмыслением этических аспектов использования искусственного интеллекта в медиа занимается и такая известная организация, как американский Фонд Найт (Knight Foundation), которая в рамках своей деятельности описывает современные практики применения ИИ в крупных и локальных медиа, анализирует этически сложные кейсы и ситуации, которые возникают при внедрении этой новой технологии.
Выводы и рекомендации
Освоение редакциями и журналистами технологий искусственного интеллекта ставит перед профес-
сиональным сообществом задачи этического регулирования этих инновационных практик, вплоть до внесения изменений или дополнений в устоявшиеся этические кодексы. Это обусловлено социальной значимостью профессии, ее общественной миссией, особенностями работы журналиста с источниками информации, рекомендательными сервисами, таргетированной дистрибуцией контента, а также возможными эффектами воздействия на аудиторию.
Предложенные рекомендации об этическом нормировании медиа и журналистики в связи с внедрением технологий ИИ сформулированы авторами на основе зарубежного и отечественного дискурса, касающегося философско-этических проблем взаимодействия человека и машины, этических вопросов, встающих в связи с применением технологий искусственного интеллекта, результатов анализа кодексов этического регулирования ИИ, выработанных в разных странах мира. Источником выводов послужили также научные труды медиаисследователей, которые изучают проблемы внедрения технологий искусственного интеллекта в редакционные практики и деятельность журналистов.
Для последующего обсуждения выделяются следующие ключевые положения, которые необходимо учесть в процессе дискуссии при вы-
работке этических правил использования искусственного интеллекта в медиа и журналистике, т.е. их кодификации. К ним относятся:
Во-первых, транспарентность работы редакций, сохранение за аудиторией права на информирование о взаимодействии с искусственным интеллектом;
Во-вторых, запрет на передачу полномочий искусственному интеллекту в вопросах нравственного выбора при подготовке медиаконтента;
В-третьих, совместная ответственность редакции и разработчиков программного обеспечения за последствия работы систем искусственного интеллекта;
В-четвертых, определение круга потенциальных тем, для работы над которыми этически неприемлемо использование искусственного интеллекта.
Перечисленные предложения по этическому регулированию использования систем искусственного интеллекта в редакционных практиках могут служить как дополнением к существующему профессиональному этическому кодексу журналиста, так и оформиться в отдельный этический норматив, по работе медиа и журналистов с искусственным интеллектом. Эти предложения также могут быть учтены при разработке профессиональных стандартов отдельных редакций и журналистских коллективов.
Список использованной литературы
1. Таллер М. Дискуссии вокруг Digital Humanities / М. Таллер. — EDN VPETOL // Историческая информатика. — 2012. — № 1. — С. 5-13.
2. Rogers E. Diffusion of Innovations / E. Rogers. — 5th ed. — New York : Free Press, 2003. — 551 p.
3. O'Regan G. A Brief History of Computing / G. O'Regan. — 2nd ed. — London ; New York : Springer, 2012. — 264 p.
4. Бердяев Н.А. Человек и машина. (Проблема социологии и метафизики техники) / Н.А. Бердяев // Вопросы философии, 1989. — № 2. — С. 147-162.
5. Бердяев Н.А. Судьба России : опыты по психологии войны и национальности / Н.А. Бердяев. — Москва : Изд. Г.А. Лемана, С.И. Сахарова, 1918. — 240 с.
6. Винер Н. Творец и робот / Н. Винер. — Москва : Прогресс, 1966. — 103 с.
7. Levenson N.G. An Investigation of the Therac-25 Accidents / N.G. Levenson, C.S. Turner // Computer. — 1993. — Vol. 26, iss. 7. — P. 18-41.
8. Rai N. Why Ethical Audit Matters in Artificial Intelligence? / N. Rai // AI and Ethics. — 2021. — Vol. 2, no. 2. — P. 209-218.
9. Ryan M. Artificial Intelligence Ethics Guidelines for Developers and Users: Clarifying Their Content and Normative Implications / M. Ryan, B.C. Stahl. — DOI 10.1108/ JICES-12-2019-0138 // Journal of Information, Communication and Ethics in Society. — 2021. — Vol. 19, no. 1. — P. 61-86.
10. Strasser A. Distributed Responsibility in Human-Machine Interaction / A. Strasser. — DOI 10.1007/s43681-021-00109-5 // AI and Ethics. — 2022. — Vol. 2, no. 3. — P. 523-532.
11. Cremer D. The Ethical AI-Paradox: Why Better Technology Needs More and Not Less Human Responsibility / D. Cremer, G. Kasparov. — DOI 10.1007/s43681-021-00103-x // AI and Ethics. — 2021. — Vol. 2, no. 3. — P. 1-4.
12. Towards Responsible Media Recommendation / M. Elahi, D. Jannach, L. Skj^rven [et al.]. — DOI 10.1007/s43681-021-00107-7 // AI Ethics. — 2022. — Vol. 2, no. 1. — P. 103-104.
13. Stahl B.C. From Computer Ethics and the Ethics of AI Towards an Ethics of Digital Ecosystems / B.C. Stahl. — DOI 10.1007/s43681-021-00080-1 // AI and Ethics. — 2022. — Vol. 2, no. 1. — P. 65-77.
14. Вартанова Е.Л. Меняющаяся архитектура медиа и цифровые платформы / Е.Л. Вартанова. — DOI 10.30547/mediaalmanah.1.2022.813. — EDN GCSXXI // Меди@ льманах. — 2022. — № 1 (108). — С. 8-13.
15. Демина И.Н. Медиатизация экономики: аспекты оптимизации экономических медиакоммуникаций в цифровой среде / И.Н. Демина. — DOI 10.17150/2308-6203.2021.10(2).253-269. — EDN EJGZFV // Вопросы теории и практики журналистики. — 2021. — Т. 10, № 2. — С. 253-269.
16. Lewis S.C. Automation, Journalism and Human-Machine Communication: Rethinking Roles and Relationships of Humans and Machines in News / S.C. Lewis, A.L. Guzman, T. Schmidt. — DOI 10.1080/21670811.2019.1577147 // Digital Journalism. — 2019. — Vol. 7, no. 2. — P. 409-427.
17. Nass C. Computers are Social Actors / C. Nass, J. Steuer, E.R. Tauber // Proceedings of the SIGHI Conference on Human Factors in Computing Systems. New York : ACM, 1994. — P. 72-78.
18. Лукина М.М. Трудовая деятельность журналиста: люди или роботы / М.М. Лукина, А.В. Замков, М.А. Крашенинникова. — DOI 10.17150/2308-6203.2020.9(1).46-64. — EDN MOOGUD // Вопросы теории и практики журналистики. — 2020. — Т. 9, № 1. — С. 46-64.
19. Hagendorff T. The Ethics of AI Ethics: An Evaluation of Guidelines / T. Hagendorff. — DOI 10.1007/s11023-020-09517-8 // Minds and Machines. — 2020. — Vol. 30, no. 1. — P. 99-120.
20. Newman N. Journalism, Media, and Technology Trends and Predictions 2022 / N. Newman. — Oxford University, 2022. — URL: https://reutersinstitute.politics.ox.ac.uk/ sites/default/files/2022-01/Newman%20-%20Trends%20and%20Predictions%202022%20 FINAL.pdf
21. Carlson M. Automating Judgment? Algorithmic Judgment, News Knowledge, and Journalistic Professionalism / M. Carlson. — DOI 10.1177/1461444817706684 // New Media & Society. — 2017. — Т. 20, iss. 5. — P. 1755-1772.
22. Kordzadeh N. Algorithmic Bias: Review, Synthesis, and Future Research Directions / N. Kordzadeh, M. Ghasemaghaei. — DOI 10.1080/0960085X.2021.1927212 // European Journal of Information Systems. — 2021. — Vol. 31, no. 3. — P. 1-22.
23. Лукина М.М. Сравнительный анализ структурно-содержательных элементов машинных и журналистских новостных сообщений / М.М. Лукина, Е.А. Палашина. — DOI 10.30547/mediaalmanah.1.2019.7284. — EDN NPRJMN // Меди@льманах. — 2019. — № 1. — С. 72-84.
24. Кульчицкая Д.Ю. Компьютерные алгоритмы в работе российских информационных агентств (на примере ИА Интерфакс и ТАСС) / Д.Ю. Кульчицкая, Т.И. Фролова. — DOI 10.30547/vestnik.journ.1.2020.319. — EDN GHKDH // Вестник Московского университета. Серия 10: Журналистика. — 2020. — № 1. — С. 3-19.
25. Lewis S.C. Libel by Algorithm? Automated Journalism and the Threat of Legal Liability / S.C. Lewis, A.K. Sanders, C. Carmody // Journalism & Mass Communication Quaterly. — 2018. — Vol. 96, iss. 1. — pp. 60-81.
References
1. Taller M. Digital Humanities: Digital Turn in the Humanities. Istoricheskaya informatika = Historical informatics, 2012, no. 1, pp. 5-13. (In Russian). EDN: VPETOL.
2. Rogers E. Diffusion of Innovations. 5th ed. New York, Free Press Publ., 2003. — 551 p.
3. O'Regan G. A Brief History of Computing. 2nd ed. London, New York, Springer Publ., 2012. 264 p.
4. Berdyaev N.A. Man and Machine (Problem of Sociology and Metaphysics of Technology). Voprosy filosofii = Issues of Philosophy, 1989, no. 2, pp. 147-162. (In Russian).
5. Berdyaev N.A. The Fate of Russia: Experiments on the Psychology of War and Nationality. Moscow, G.A. Leman, S.I. Sakharov Publ., 1918. 240 p.
6. Viner N. Creator and a Robot. Moscow, Progress Publ., 1966. 103 p.
7. Levenson N.G., Turner C.S. An Investigation of the Therac-25 Accidents. Computer, 1993, vol. 26, iss. 7, pp. 18-41.
8. Rai N. Why Ethical Audit Matters in Artificial Intelligence? AI and Ethics, 2021, vol. 2, no. 2, pp. 209-218.
9. Ryan M., Stahl B.C. Artificial Intelligence Ethics Guidelines for Developers and Users: Clarifying their Content and Normative Implications. Journal of Information, Communication and Ethics in Society, 2021, vol. 19, no.1, pp. 61-86. DOI: 10.1108/JICES-12-2019-0138.
10. Strasser A. Distributed Responsibility in Human-machine Interaction. AI and Ethics, 2022, vol. 2, no. 3, pp. 523-532. DOI: 10.1007/s43681-021-00109-5._
11. Cremer D., Kasparov G. The Ethical AI-paradox: Why better Technology Needs more and not less Human Responsibility. AI and Ethics, 2021, vol. 2, no. 3, pp. 1-4. DOI: 10.1007/ s43681-021-00103-x.
12. Elahi M., Jannach D., Skjœrven L., Knudsen E. [et al.]. Towards Responsible Media Recommendation. AI Ethics, 2022, vol. 2, no. 1, pp. 103-104. DOI: 10.1007/s43681-021-00107-7.
13. Stahl B.C. From Computer Ethics and the Ethics of AI Towards an Ethics of Digital Ecosystems. AI and Ethic, 2022, vol. 2, no. 1, pp. 65-77. DOI: 10.1007/s43681-021-00080-1.
14. Vartanova E.L. Changing Media Architecture and Digital Platforms. MediaAl'manakh = MediaAlmanah Journal, 2022, no. 1, pp. 8-13. (In Russian). EDN: GCSXXI. DOI: 10.30547/ mediaalmanah.1.2022.813.
15. Demina I.N. Mediatization of the Economy : Aspects of Optimizing Economic Media Communications in the Digital Environment. Voprosy teorii i praktiki zhurnalistiki = Theoretical and Practical Issues of Journalism, 2021, vol. 10, no. 2, pp. 253-269. (In Russian). EDN: EJGZFV. DOI: 10.17150/2308-6203.2021.10(2).253-269.
16. Lewis S.C., Guzman A.L., Schmidt T. Automation, Journalism and Human-Machine Communication: Rethinking Roles and Relationships of Humans and Machines in News. Digital Journalism, 2019, vol. 7, no. 2, pp. 409-427. DOI: 10.1080/21670811.2019.1577147.
17. Nass C., Steuer J., Tauber E.R. Computers are Social Actors. Proceedings of the SIGHI Conference on Human Factors in Computing Systems. New York, ACM, 1994, pp. 72-78.
18. Lukina M.M., Zamkov A.V., Krasheninnikova M.A. Working Practicec of Jorrnalists: Humans or Robots. Voprosy teorii i praktiki zhurnalistiki = Theoretical and Practical Issues of Journalism, 2020, vol. 9, no. 1, pp. 46-64. (In Russian). EDN: MOOGUD. DOI: 10.17150/2308-6203.2020.9(1).46-64.
19. Hagendorff T. The Ethics of AI Ethics: An Evaluation of Guidelines. Minds and Machines, 2020, vol. 30, no. 1, pp. 99-120. DOI: 10.1007/s11023-020-09517-8.
20. Newman N. Journalism, Media, and Technology Trends and Predictions. Oxford University, 2022. Available at: https://reutersinstitute.politics.ox.ac.uk/sites/default/ files/2022-01/Newman%20-%20Trends%20and%20Predictions%202022%20FINAL.pdf
21. Carlson M. Automating Judgment? Algorithmic Judgment, News Knowledge, and Journalistic Professionalism. New Media & Society, 2017, vol. 20, iss. 5, pp. 1755-1772. DOI: 10.1177/1461444817706684.
22. Kordzadeh N., Ghasemaghaei M. Algorithmic Bias: Review, Synthesis, and Future Research Directions. European Journal of Information Systems, 2021, vol. 31, no. 3, pp. 1-22. DOI: 10.1080/0960085X.2021.1927212.
23. Lukina M.M., Palashina E.A. A Comparative Analysis of Structural and Content Elements of Machine and Journalistic News Reports. MediaAl'manakh = MediaAlmanah Journal, 2019, no. 1, pp. 72-84. (In Russian). EDN: NPRJMN. DOI: 10.30547/ mediaalmanah.1.2019.7284.
24. Kulchitskaya D.Yu., Frolova T.I. Computer Algorithms Used in Russian News Agencies (A Case Study of Interfax and TASS). Vestnik Moskovskogo universiteta. Seriya 10: Zhurnalistika = Moscow University Journalism Bulletin, 2020, no. 1, pp. 3-19. (In Russian). EDN: YGHKDH. DOI: 10.30547/vesnik.journ.1.2020.319
25. Lewis S.C., Sanders A.K., Carmody C. Libel by Algorithm? Automated Journalism and the Threat of Legal Liability. Journalism & Mass Communication Quaterly, 2018, vol. 96, iss. 1, pp. 60-81.
Информация об авторах
Лукина Мария Михайловна — кандидат филологических наук, доцент, доцент кафедры новых медиа и теории коммуникации, факультет журналистики, Московский государственный университет имени М.В. Ломоносова, г. Москва, Российская Федерация, maria_lukina@list.ru, О https://orcid.org/0000-0001-5866-5636.
Замков Андрей Владимирович — научный сотрудник, проблемная научно-исследовательская лаборатория комплексного изучения актуальных проблем журналистики, факультет журналистики, Московский государственный университет имени М.В. Ломоносова, г Москва, Российская Федерация, zamkov.andrey@mail.ru, О https://orcid. org/0000-0002-7968-1616.
Крашенинникова Мария Алексеевна — кандидат филологических наук, доцент кафедры новых медиа и теории коммуникации, факультет журналистики, Московский государственный университет имени М.В. Ломоносова, г Москва, Российская Федерация, mashagarnova@gmail.com, @ https://orcid.org/0000-0003-3884-0112.
Кульчиикая Диана Юрьевна — кандидат филологических наук, преподаватель, Новый болгарский университет, г. София, Болгария, diana.kulchitskaya@gmail.com, О https://orcid.org/0000-0003-3432-5965.
Authors Information
Maria M. Lukina — PhD in Philology, Associate Professor, Department of New Media and Communication Theory, Faculty of Journalism, Lomonosov Moscow State University, Moscow, Russian Federation, maria_lukina@list.ru, @ https://orcid.org/0000-0001-5866-5636.
Andrey V. Zamkov — Research Fellow, Problem Research Laboratory for Complex Studies of Current Issues of Journalism, Faculty of Journalism, Faculty of Journalism, Lomonosov Moscow State University, Moscow, Russian Federation, zamkov.andrey@mail.ru, O https://orcid.org/0000-0002-7968-1616.
Maria A. Krasheninnikova — PhD in Philology, Associate Professor, Department of New Media and Communication Theory, Faculty of Journalism, Lomonosov Moscow State University, Moscow, Russian Federation, mashagarnova@gmail.com, O https://orcid. org/0000-0003-3884-0112.
Diana Yu. Kulchitskaya — PhD in Philology, Lecturer, New Bulgarian University, Sofia, Bulgaria, diana.kulchitskaya@gmail.com, @ https://orcid.org/0000-0003-3432-5965.
Вклад авторов
Все авторы сделали эквивалентный вклад в подготовку публикации. Авторы заявляют об отсутствии конфликта интересов.
Contribution of the Authors
The authors contributed equally to this article. The authors declare no conflicts of interests.
Для цитирования
Искусственный интеллект в российских медиа и журналистике: к дискуссии об этической кодификации / М.М. Лукина, А.В. Замков, М.А. Крашенинникова, Д.Ю. Кульчицкая. — DOI 10.17150/2308-6203.2022.11(4).680-694. — EDN WMNHIF // Вопросы теории и практики журналистики. — 2022. — Т. 11, № 4. — С. 680-694.
For Citation
Lukina M.M., Andrey V.Z., Krasheninnikova M.A., Kulchitskaya D.Yu. Artificial Intelligence in the Russian Media and Journalism: The Issue of Ethics. Voprosy teorii i praktiki zhurnalistiki = Theoretical and Practical Issues of Journalism, 2022, vol. 11, no. 4, pp. 680-694. (In Russian). EDN: WMNHIF. DOI: 10.17150/2308-6203.2022.11(4).680-694.