Научная статья на тему 'Транспарентность роботизированной журналистики: как новые технологии угрожают принципам профессии'

Транспарентность роботизированной журналистики: как новые технологии угрожают принципам профессии Текст научной статьи по специальности «СМИ (медиа) и массовые коммуникации»

CC BY
1075
191
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
РОБОТИЗИРОВАННАЯ ЖУРНАЛИСТИКА / АЛГОРИТМЫ / МАШИННОЕ ОБУЧЕНИЕ / ВЫЗОВЫ ПРОФЕССИИ / ЖУРНАЛИСТСКАЯ ЭТИКА / ROBOTED JOURNALISM / ALGORITHMS / MACHINE LEARNING / PROFESSION CALLS / JOURNALISTIC ETHICS

Аннотация научной статьи по СМИ (медиа) и массовым коммуникациям, автор научной работы — Иванов Андрей Дмитриевич

Появление принципиально новых роботизированных технологий, исключающих участие человека в процессе поиска, обработки и публикации информации, особо остро ставит вопросы сохранности профессиональных и этических принципов журналистской деятельности. Автор исследования анализирует новые вызовы профессии, формирующиеся вследствие развития роботизированной журналистики, которая развивается в отсутствии сформулированных требований к прозрачности работы алгоритмов.

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

Transparency of roboted journalism: how the new technologies threaten the principles of the profession

Emergence of essentially new robotic technologies excluding participation of the person in the course of search, processing’s and publications of information, especially sharply raises questions of safety of professional and ethical principles of journalism. The author of a research analyzes the new calls of a profession, which are formed in a consequence of development of robotic journalism, which develops in lack of the formulated requirements to transparency of work of algorithms.

Текст научной работы на тему «Транспарентность роботизированной журналистики: как новые технологии угрожают принципам профессии»

Вестник Челябинского государственного университета.

2017. № 8 (404). Филологические науки. Вып. 107. С. 28-33.

УДК 070

ББК 76.01

ТРАНСПАРЕНТНОСТЬ РОБОТИЗИРОВАННОЙ ЖУРНАЛИСТИКИ:

КАК НОВЫЕ ТЕХНОЛОГИИ УГРОЖАЮТ ПРИНЦИПАМ ПРОФЕССИИ

А. Д. Иванов

Челябинский государственный университет, Челябинск, Россия

Появление принципиально новых роботизированных технологий, исключающих участие человека в процессе поиска, обработки и публикации информации, особо остро ставит вопросы сохранности профессиональных и этических принципов журналистской деятельности. Автор исследования анализирует новые вызовы профессии, формирующиеся вследствие развития роботизированной журналистики, которая развивается в отсутствии сформулированных требований к прозрачности работы алгоритмов.

Ключевые слова: роботизированная журналистика, алгоритмы, машинное обучение, вызовы профессии, журналистская этика.

Принципиально новый этап развития журналистики теоретики и практики сферы массовой коммуникации связывают с развитием технологий искусственного интеллекта (artificial intelligence, AI) и машинного обучения (machine learning, ML). Последние годы тема автоматизации процессов журналистской деятельности по сбору, обработке, анализу, созданию и распространению информации заняла ведущие позиции в работах мирового научного сообщества, посвященных изучению перспектив развития ме-диаотрасли.

Под роботизированной журналистикой мы понимаем сложный многоступенчатый процесс поиска, накопления, обработки, статистического и семантического анализа данных автоматизированными алгоритмами, действующими в том числе на основе нейронных сетей, конечным этапом которого является генерация текста на естественном языке, содержащего новую информацию об исследуемом объекте. Добавим, что не всегда первичные данные, получаемые роботом-журналистом, представляют собой текст с наличествующими семантическими связями, о которых говорит группа исследователей [1] во главе с А. В. Замковым, иначе бы речь шла не о принципиально новом этапе для системы ме -диа, а о развитии автоматизированных механизмов рерайта. Последние разработки алгоритмов для нужд новостной журналистики показывают, что изначальным материалом для подготовки новости может служить массив данных, состоящий из разрозненных публикаций социальных сетей,

который в результате статистического анализа преобразуется в сообщение. Так, к примеру, работает китайский медиабот Сяо Нань (Xiao Nan), который в начале 2017 г. опубликовал новость о возросшем интересе к поездкам в преддверии китайского Нового года, использовав для этого информацию пользователей, опубликованную в социальных сетях [8].

Всплеск интереса научного сообщества к теме развития роботизированной журналистики возникает в последние пару лет и это напрямую связано с появлением первых прототипов роботов-журналистов в редакциях международных изданий. В 2010 г. алгоритм Narrative Science был применен для подготовки спортивных и экономических отчетов в Forbes, в 2013 г. — запущен Quakebot в The Los Angeles Times для публикации информации о землетрясениях, в 2014 г. — «криминальный робот» Guarbot в издании The Guardian и Wordsmith в Associated Press, в 2017 г. — медиабот Xiao Nan в газете Southern Metropolis Daily из китайского города Гуанчжоу. Значимым этапом в развитии автоматизированной журналистики стал запуск проекта агентства Press Association под названием RADAR [9], на поддержку которого компания Google выделила $807 тыс. по программе Digital News Initiative. Предполагается, что уже в 2018 г. этот алгоритм будет создавать более 30 000 публикаций в месяц для нужд новостного агентства. Стоит отметить, что процессу автоматизации в журналистике на сегодняшний день поддаются далеко не все темы — в основе новости обязательно должны

быть цифры или отчеты, которые поддаются статистическому анализу, чтобы алгоритм мог правильно обработать данные и использовать их для написания читабельного текста.

Несмотря на существующие технологические ограничения, практический аспект роботизированной журналистики развивается довольно быстро — крупные международные издания Соединенных Штатов Америки, Великобритании, Китая и других стран активно создают и используют в полевых условиях первые прототипы алгоритмов, способных заменить штатных журналистов в сфере подготовки новостей об экономике, спорте, чрезвычайных происшествиях. Потенциал для развития журналистики видится в подобных разработках глобальный, но для профессии процесс роботизации может оказаться очень неоднозначным — эксперты в области медиа уже строят массу различных теорий развития журналистики и даже вплоть до апокалиптических, связанных с вытеснением человека из новостной оперативной журналистики. На деле же сегодня роботы служат исключительно помощниками в ежедневной оперативной работе с информацией и не угрожают увольнением журналистам в редакциях из-за ограниченности своих функций, сложности процесса обучения робота, а также в силу существования неразрешимых этических и профессиональных вопросов.

Можно выделить несколько основных вызовов — совокупность этических, профессиональных и социальных проблем, возникающих в процессе развития роботизированной журналистики.

Группа нидерландских исследователей во главе с A. Kasem в своей работе по изучению сценариев развития журналистики выделяет направления трансформации системы массовых коммуникаций и связывает основные тренды с появлением новой техники и девайсов массового пользования, доминированием социальных сетей в роли ключевого источника информации, а также с развитием автоматизации и роботизации [6]. В частности, особую роль в будущем журналистики авторы отводят алгоритмам ранжирования контента, которые должны стать основным инструментом формирования новостной повестки дня. Благодаря использованию этих систем, набором новостей, попадающих на первый экран сайта (данные, расположенные в самом верху сайта и не требующие со -вершения скролла мышкой) любого интернет-

сервиса (от медиа до социальных сетей), можно будет вводить аудиторию в заблуждение. Как пример авторы приводят сложный набор алгоритмов, использующихся в сервисах Facebook и Google, которые по ряду критериев и правил, держащихся в строгой секретности, определяют качество и потенциал контента для аудитории. Самые верхние позиции в ленте формируются не редакторским коллективом, как это зачастую происходит на новостных порталах сегодня, а с помощью автоматизированных систем на основе предпочтений и интересов конкретного пользователя. Если наличие редактора, формирующего новостную повестку, сейчас воспринимается как проявление позиции того или иного издания по ряду вопросов, то в случае с работой автоматизированных алгоритмов ранжирования, представляемых как максимально объективные и независимые системы, речь идет о глобальном влиянии на общественное мнение. Аудитория воспринимает факт автоматического ранжирования и последовательность потребляемого контента как проявление сверхобъективности алгоритма, в то время как может иметь место некорректная первоначальная настройка или обход «интеллектуальной» системы третьими лицами уже в процессе анализа информации роботом.

На наш взгляд, подобные роботизированные алгоритмы являются потенциально слабым и опасным местом для журналистики как социального института сегодня. Лоббирование определенных тем, тезисов и подсвечивание «нужных» мнений может привести к искажению реальной информации и манипулированию фактами для достижения третьими лицами определенной коммерческой или политической выгоды. На первый план выходит не качество журналистского контента, его оперативность, достоверность и глубина, а умение обмануть робота, сортирующего информацию в новостной ленте социальных сетей, новостных агрегаторах или личных телефонных ассистентов (Google Assistant, Siri, Cortana и прочие). Подобная «интеллектуальная» система нивелирует значимость фактов и журналистскую работу в целом, ведь дает возможность выводить на поверхность глобальных информационных потоков любую информацию. Главное — выполнить все требования сортирующего контент алгоритма.

Эффект излишней фильтрации и персонализа-ции, приводящий к искажению и ограничению

получаемой информации, уже давно получил название «пузырь фильтров», однако в контексте развития роботизированной журналистики и повсеместного внедрения рекомендательных систем это явление приобретает новые сферы применения: к поисковым системам добавляются сайты средств массовой информации, социальные сети и новостные агрегаторы.

В этом контексте особую ценность приобретает навык роботов проверять информацию, которым сегодня алгоритмы не обладают, — в своей работе они лишь сопоставляют некоторые статистические данные, найденные в открытых для обучения источниках, чтобы сделать вывод о наличии или отсутствии закономерностей. Алгоритм может выявить формирование новых трендов, определить «почему» это происходит, но понять ситуацию или ответить на вопросы «зачем» и «что с этим делать» робот в перспективе ближайших 10-15 лет, конечно не сможет. И несмотря на то, что сравниться с опытным жур -налистом в проверке фактов и формировании вывода алгоритм пока не в состоянии, потенциальная опасность для профессии в перспективе сохраняется. Грамотное владение технологиями позволит обманывать алгоритм и подтасовывать факты для создания нужной картины мира или отдельно взятой ситуации.

Профессор Мюнхенского университета Людвига и Максимилиана (Ludwig-MaximiliansUniversität München) и Лондонского университета (University of London) Нил Турман (Neil Thurman) в рамках исследования автоматизированной журналистики провел опрос журналистов редакторов и руководителей крупных международных медийных компаний (CNN, BBC, Thomson Reuters, Trinity Mirror, News UK) [7]. Выяснилось, что значительная часть респондентов выразила беспокойство по поводу объективности новостной повестки, формируемой роботами. По словам опро -шенных, алгоритмы смогут производить излишнее количество журналистских материалов на определенные темы, чтобы перетянуть на себя внимание аудитории, тем самым снизив значимость других важных событий. Учитывая постоянно возрастающий объем информации, с которым приходится каждый день сталкиваться человеку, масштабирование проектов, наподобие RADAR, в планах у которого — роботизированное изготовление более 30 000 новостей в месяц, ориентироваться в глобальном новостном потоке станет невозможно. Поэтому массовые «вбросы»

публикаций на нужную тему создадут дополнительные сложности для объективного восприятия реальности аудиторией в процессе потребления новостей.

Однако сам по себе робот не может подменить факты, начать писать больше текстов на какую-то случайную тему или составить ложные причинно-следственные связи — для этого требуется вмешательство человека на этапе программирования и обучения автоматизированного алгоритма или изначально ложная информация, которую робот по какой-то причине будет считать достоверной, что тоже является примером некорректной настройки и работы системы.

Алгоритм газеты The Los Angeles Times под названием Quakebot был разработан в 2013 г. по заказу редакции издания, чтобы автоматизировать и значительно ускорить процесс подготовки сообщений о землетрясениях [2]. На основе данных из открытых источников (в первую очередь на основе отчетов Геологической службы США) робот готовит заметки и тратит на весь процесс от получения данных до публикации информации на сайте около трех минут — этого времени журналисту-человеку не хватит, даже чтобы качественно обработать и проверить информацию. За все время работы Quakebot создал сотни оперативных новостей, однако в июне 2017 г. совершил первую, но крайне важную ошибку [10].

Алгоритм не смог отличить фейковую новость о землетрясении магнитудой 6,8 в городе Санта-Барбара, размещенную по ошибке на сайте Геологической службы США 22 июня, от реального события. Сотрудник Службы обновлял архивные данные и по ошибке указал, что землетрясение произошло в 2025 г. вместо 1925 г., после чего система оповещений автоматически разослала предупреждение жителям города о надвигающемся ударе стихии — данные получил также Quakebot, подготовил оперативное сообщение и разместил его на сайте газеты и в социальных сетях. Позже The Los Angeles Times опубликовала опровержение, объяснила ситуацию и удалила некорректные данные, однако эта ситуация отлично продемонстрировала, что существующие алгоритмы пока не способны по-настоящему анализировать и проверять данные. Репортер, отвечающий за освещение землетрясений, как минимум бы заметил отсутствие подземных толчков, как максимум — увидел опечатку в отчете и перепроверил данные. Алгоритм же выполнил

исключительно запрограммированные действия и не мог отступить от прописанного программного кода, в котором не была заложена система фактчекинга. На месте выдуманного землетрясения мог оказаться любой другой факт, который робот-журналист принял бы за данность, и это демонстрирует профессиональному сообществу необходимость в более детальной проработке ро -ботов-журналистов, а также в организации систе -мы контроля качества информации, подготавливаемой алгоритмами.

С учетом, что имеющиеся разработки в области автоматизации процессов в журналистике представляют собой коммерческую тайну крупных медиагигантов, в том числе Google и Facebook, остро встает вопрос о регулировании этапов создания, программирования, обучения и функционирования алгоритмов, которые работают с массовой информацией.

Программный код и изначальный объем размеченной информации, на которой обучалась нейронная сеть, лежащая в основе любого алгоритма по написанию новостей, другие особенно -сти работы — все это должно быть максимально понятным и прозрачным для аудитории, если в будущем робот-журналист займет главное место в новостной редакции. Законодательство стран контролирует деятельность журналиста по-разному, однако в вопросах ответственности за предоставление недостоверных данных позиции многих государств очень схожи — за ошибки в информации отвечает журналист и редакция СМИ, но кто будет нести ответственность за опубликованные роботом новости? Редактор? Программист? Ни профессиональное, ни научное сообщество пока не может дать однозначного ответа, каким образом должна контролироваться прозрачность механизмов работы робо-

тов-журналистов, систем ранжирования и рекомендации.

Профессор Высшей школы медиа и коммуникаций (Macromedia Hochschule für Medien und Kommunikation) Андреас Грефе (Andreas Graefe) в Руководстве по автоматизированной журналистике говорит о непредвзятости и объективности роботов-журналистов, как о слишком оптимистичном или даже ложном восприятии этих тенденций. По словам исследователя, важное место в дорожной карте развития автоматизированной журналистики должны занять как раз вопросы прозрачности механизмов, а также мониторинга качества но -востей, подготовленных без участия человека [5].

Говоря о перспективах развития медиаотрас-ли в контексте роботизации, можно сделать вывод, что особое внимание должно уделяться процессам так называемого обучения алгоритмов, в ходе которого робот-журналист получает установочные данные, а также процессам верификации данных и фактчекинга. Вопрос транспарентности работы роботов-журналистов находится на стыке коммерческих интересов компаний и изданий, занимающихся их разработкой и совершенствованием алгоритмов, а также профессиональными и этическими нормами, требующими от журналистики объективности и достоверности в работе с информацией. На наш взгляд, процесс регулирования искусственного интеллекта — самый острый и сложный, и касается не только роботизированной журналистики, а всей отрасли машинного обучения в целом. Решение этих вопросов позволит сохранить значимость и ценность журналистской профессии даже в ситуации отсутствия людей, задействованных в процессе обработки информации и создания новостей.

Список литературы

1. Замков, А. В. Роботизированная журналистика: от научного дискурса к журналистскому образованию / А. В. Замков, М. А. Крашенинникова, М. М. Лукина, Н. А. Цынарёва // Медиаскоп. — 2017. — Вып. 2. — URL: http://www.mediascope.ru/2295. — Дата обращения: 01.07.2017.

2. Иванов, А. Д. Роботизированная журналистика и первые алгоритмы на службе редакций международных СМИ / А. Д. Иванов // Знак: проблем. поле медиаобразования. — 2015. — N° 2 (16). — С. 32-40.

3. Иванов, А. Д. Современное состояние роботизированной журналистики / А. Д. Иванов // Журналистика цифровой эпохи: как меняется профессия. — Екатеринбург, 2016. — С. 106-109.

4. Diakopoulos, N. Algorithmic transparency in the news media / N. Diakopoulos, M. Koliska // Digital Journalism. — 2016. — 27 July. — P. 1-20.

5. Graefe, A. Guide to Automated Journalism / A. Graefe — URL: http://towcenter.org/research/guide-to-automated-journalism. — Дата обращения: 15.01.2017.

6. Kasem, A. What's New (s). Scenarios on the Future of Journalism / A. Kasem, M. Waes, K. Wannet // Amsterdam. Retrieved September. — 2015. — Т. 18. — P. 13-18.

7. Thurman, N. When Reporters Get Hands-on with Robo-Writing: Professionals consider automated journalism's capabilities and consequences / N. Thurman, K. Dörr, J. Kunert // Digital Journalism. — 2017. — March 1. — P. 1-20.

8. Chinese robot 'reporter' makes its publishing debut / China news service. — URL: http://www.ecns. cn/2017/01-19/242444.shtml. — Дата обращения: 18.07.2017.

9. PA awarded €706,000 grant from Google to fund a local news automation service in collaboration with Urbs Media / Press Association. — URL: https://www.pressassociation.com/company-news/pa-awarded-e706000-grant-google-fund-local-news-automation-service-collaboration-urbs-media. — Дата обращения: 10.07.2017.

10. Robot Journalist Accidentally Reports on Earthquake from 1925. — URL: http://gizmodo.com/robot-journalist-accidentally-reports-on-earthquake-fro-1796325030. — Дата обращения: 30.06.2017.

Сведения об авторе

Иванов Андрей Дмитриевич — преподаватель кафедры журналистики и массовых коммуникаций факультета журналистики, Челябинский государственный университет; управляющий партнер SMM-агентства SMMashing Media. Челябинск, Россия. info-ai@yandex.ru

Bulletin of Chelyabinsk State University.

2017. No. 8 (404). Philology Sciences. Iss. 107. Pp. 28-33.

TRANSPARENCY OF ROBOTED JOURNALISM: HOW THE NEW TECHNOLOGIES THREATEN THE PRINCIPLES

OF THE PROFESSION

A. D. Ivanov

Chelyabinsk State University, Chelyabinsk, Russia. info-ai@yandex.ru

Emergence of essentially new robotic technologies excluding participation of the person in the course of search, processing's and publications of information, especially sharply raises questions of safety of professional and ethical principles of journalism. The author of a research analyzes the new calls of a profession, which are formed in a consequence of development of robotic journalism, which develops in lack of the formulated requirements to transparency of work of algorithms.

Keywords: roboted journalism, algorithms, machine learning, profession calls, journalistic ethics.

References

1. Zamkov A.V. Robotizirovannaya zhurnalistika: ot nauchnogo diskursa k zhurnalistskomu obrazovaniyu [Roboted journalism: from scientific discourse to journalistic education]. Available at: http://www.mediascope. ru/2295, accessed 01.07.2017. (In Russ.).

2. Ivanov A.D. Robotizirovannaya zhurnalistika i pervyie algoritmyi na sluzhbe redaktsiy mezhdunarod-nyih SMI [The Robotic Journalism and the first algorithms on service of editions of the international mass media]. Znak: problemnoe pole mediaobrazovaniya [Sign: the problem field of media education], 2015, no. 2 (16), pp. 32-40. (In Russ.).

3. Ivanov A.D. Sovremennoe sostoyanie robotizirovannoy zhurnalistiki [The current state of robotic journalism]. Zhurnalistika tsifrovoy epohi: kak menyaetsya professiya [Journalism of the digital era: how does the profession change]. Ekaterinburg, 2016, pp. 106-109. (In Russ.).

4. Diakopoulos N. Algorithmic transparency in the news media. Digital Journalism, 2016, 27 July, pp. 1-20.

5. Graefe A. Guide to Automated Journalism. Available at: http://towcenter.org/research/guide-to-automat-ed-journalism, accessed 15.01.2017.

6. Kasem A. What's New (s). Scenarios on the Future of Journalism. Amsterdam. Retrieved September, 2015, no. 18, pp 13-18.

7. Thurman N. When Reporters Get Hands-on with Robo-Writing: Professionals consider automated journalism's capabilities and consequences. Digital Journalism, 2017, March 1, pp. 1-20.

8. Chinese robot 'reporter' makes its publishing debut. Available at: http://www.ecns.cn/2017/01-19/242444. shtml, accessed 18.07.2017.

9. PA awarded €706,000 grant from Google to fund a local news automation service in collaboration with Urbs Media. Available at: https://www.pressassociation.com/company-news/pa-awarded-e706000-grant-google-fund-local-news-automation-service-collaboration-urbs-media, accessed 10.07.2017.

10. Robot Journalist Accidentally Reports on Earthquake from 1925. Available at: http://gizmodo.com/robot-journalist-accidentally-reports-on-earthquake-fro-1796325030, accessed 30.06.2017.

i Надоели баннеры? Вы всегда можете отключить рекламу.