Научная статья на тему 'МЕЧТАЮТ ЛИ ЖУРНАЛИСТЫ ОБ ЭЛЕКТРОСОАВТОРАХ? К ВОПРОСУ О РЕАЛИЗМЕ ГЕНЕРАТИВНОГО ИИ'

МЕЧТАЮТ ЛИ ЖУРНАЛИСТЫ ОБ ЭЛЕКТРОСОАВТОРАХ? К ВОПРОСУ О РЕАЛИЗМЕ ГЕНЕРАТИВНОГО ИИ Текст научной статьи по специальности «СМИ (медиа) и массовые коммуникации»

CC BY
13
2
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
генеративный искусственный интеллект / искусственные нейронные сети / машинное обучение / эвристика / ценности / новостная журналистика / достаточность / generative AI / artificial neural networks / machine learning / heuristics / values / news journalism / sufficiency

Аннотация научной статьи по СМИ (медиа) и массовым коммуникациям, автор научной работы — Терехов Михаил Дмитриевич, Федоненков Денис Юрьевич

Тема статьи гипотетическая возможность замены человека на мыслящую машину рассмотрена на частном примере деятельности журналистов / пресс-служб. Рассматриваются некоторые аргументы в пользу несводимости человеческого творчества и машинного псевдотворчества друг к другу. Авторы констатируют, что считать ИИ и человека равнозначными в творческих видах деятельности уместно лишь с точки зрения разумной достаточности.

i Надоели баннеры? Вы всегда можете отключить рекламу.

Похожие темы научных работ по СМИ (медиа) и массовым коммуникациям , автор научной работы — Терехов Михаил Дмитриевич, Федоненков Денис Юрьевич

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

DO JOURNALISTS DREAM OF ELECTRIC CO-AUTHORS? (OR TO THE QUESTION OF THE REALISM OF GENERATIVE AI)

The topic of the article the hypothetical possibility of replacing a person with a thinking machine is considered on a particular example of the activities of journalists / press services. Some arguments in favour of irreducibility of human creativity and machine pseudo-creativity to each other are considered. The authors state it is appropriate to consider GenAI and human as equivalent in creative activities only from the point of view of reasonable sufficiency.

Текст научной работы на тему «МЕЧТАЮТ ЛИ ЖУРНАЛИСТЫ ОБ ЭЛЕКТРОСОАВТОРАХ? К ВОПРОСУ О РЕАЛИЗМЕ ГЕНЕРАТИВНОГО ИИ»

УДК 008.2 DOI: 10.31249/rphil/2024.03.10

ТЕРЕХОВ М.Д.*, ФЕДОНЕНКОВ Д.Ю." МЕЧТАЮТ ЛИ ЖУРНАЛИСТЫ ОБ ЭЛЕКТРОСОАВТОРАХ? К ВОПРОСУ О РЕАЛИЗМЕ ГЕНЕРАТИВНОГО ИИ

Аннотация. Тема статьи - гипотетическая возможность замены человека на мыслящую машину - рассмотрена на частном примере деятельности журналистов / пресс-служб. Рассматриваются некоторые аргументы в пользу несводимости человеческого творчества и машинного псевдотворчества друг к другу. Авторы констатируют, что считать ИИ и человека равнозначными в творческих видах деятельности уместно лишь с точки зрения разумной достаточности.

Ключевые слова, генеративный искусственный интеллект; искусственные нейронные сети; машинное обучение; эвристика; ценности; новостная журналистика; достаточность.

TEREKHOV M.D., FEDONENKOV D.Y. DO JOURNALISTS DREAM OF ELECTRIC CO-AUTHORS? (OR TO THE QUESTION OF THE REALISM OF GENERATIVE AI)

Abstract. The topic of the article - the hypothetical possibility of replacing a person with a thinking machine - is considered on a particular example of the activities of journalists / press services. Some arguments in favour of irreducibility of human creativity and machine pseudo-creativity to each other are considered. The authors state it is appropriate to consider GenAI and human as equivalent in creative activities only from the point of view of reasonable sufficiency.

© Терехов Михаил Дмитриевич - кандидат философских наук, начальник

пресс-службы ООО «Меберт Групп»; [email protected]

«

© Федоненков Денис Юрьевич - генеральный директор ООО «Свет Медиа»; [email protected]

Key words', generative AI; artificial neural networks; machine learning; heuristics; values; news journalism; sufficiency.

Для цитирования: Терехов М.Д., Федоненков Д.Ю. Мечтают ли журналисты об электросоавторах? (или к вопросу о реализме генеративного ИИ) // Социальные и гуманитарные науки. Отечественная и зарубежная литература. Сер. 3: Философия. - 2024. - №3. - С. 122-129. -DOI: 10.31249/rphil/2024.03.10

Поводом к написанию данной статьи стала дискуссия, случившаяся (в присутствии авторов) в офисе одного российского информационного агентства. Одним из участников был высказан тезис, что уже в обозримом будущем инструменты генеративного ИИ смогут полностью вытеснить журналистов из профессии, поскольку последние лишь «фиксируют окружающую действительность» -а ИИ умеет делать то же самое, только быстрее и за гораздо меньшие деньги.

Конечно, это утверждение встретило возражения - вполне логичные, поскольку участниками диалога были большей частью сотрудники информагентства. Однако дело здесь не только и не столько в желании защитить свою профессию или в неприятии «жестокой» действительности. Вопрос о возможности замены журналиста генеративным ИИ, по сути, не технический, а философский., поскольку затрагивает фундаментальные различия между машиной и человеком. Представляется, что машинам отдаются рутинные, повторяющиеся действия, в то время как творческая активность и принятие важных решений остаются в компетенции людей. Согласно исследованию McKinsey & Company, датированному еще 2015 г. (за три года до выхода разработок OpenAI), 45% видов оплачиваемой деятельности могут быть автоматизированы, а в 60% видов могут быть автоматизированы более 30% составляющих их действий. Общий вывод аналитиков McKinsey, в целом не устаревший, - чем менее монотонной и предсказуемой является деятельность, тем в большей степени она останется человеческой [10]. В журналистской работе, на первый взгляд, степень непредсказуемости достаточно высока. Тем не менее уже в январе 2023 г. американская медиакомпания BuzzFeed сократила штат на 12% в результате внедрения ChatGPT.

Что на настоящее время умеют «пишущие» искусственные нейронные сети в области журналистской работы? В работе А.П. Суходолова и коллег1 [6] приводится впечатляющий перечень: отслеживание ключевых событий; определение новостной повестки и предложение идей для сюжетов в соответствии с ней; составление репортажей, в том числе на основе спортивной, финансовой, предвыборной и т.п. статистики; модерация комментариев, фактче-кинг, выявление фальшивых новостей и т.д. Нейросеть способна редактировать текст - сократить, растянуть, изменить стилистику. Другие инструменты, ориентированные на видеоконтент, такие как Magisto и Wibbitz, могут «отсмотреть» снятый материал, выделить удачные кадры и смонтировать их в единый сюжет. На основании статистики медиапотребления нейросети способны прогнозировать, какие темы будут интересны аудитории в будущем, и также предлагать варианты перспективных материалов.

Сложности возникают в тот момент, когда сгенерированный контент нужно сделать эмоциональным. Текст, написанный машиной без последующего ручного редактирования, на данный момент представляется читателю-человеку не слишком естественным и качественно проигрывает тексту от умелого копирайте-ра. Более того, даже содержательно «слабый» текст воспринимается испытуемыми более убедительным, чем насыщенный аргументами и фактами, если он эмоционально подан. Это показала дискуссия с участием программы IBM Debater и живого спикера (профессионального полемиста) - зрители при голосовании отдали предпочтение последнему, несмотря на превосходство аргументов ex machina. Хотя существуют инструменты, позволяющие автоматически определять тональность текста, считывать эмоции и моделировать личность автора, например, по «большой пятерке» Голдберга, результаты именно придания контенту нужной эмоциональной окраски средствами ИИ пока довольно сомнительны. Один из авторов данной статьи использовал в рабочих целях нейросеть LLaMA-3 для создания текстов в стиле определенного писателя-сатирика (М. Твена, С. Довлатова, Б.Шоу

1 Суходолов А.П., Бычкова A.M., ОванесянС.С. Журналистика с искусственным интеллектом // Вопросы теории и практики журналистики. - 2019. - № 4. - С. 647-667.

и др.) на основе уже готового, написанного в нейтральном, информационном стиле. «Гуманизация», произведенная ИИ, ограничилась однотипной подстановкой шуток после каждого ключевого тезиса (в изначальном варианте они были разделены буллитами), причем юмор авторов, принадлежавших одному времени и писавших об одном обществе (Б. Шоу и П.Г. Вудхауз), в представлении нейросети практически не отличался. Вероятно, любой из читателей, кто воспользуется нейросетью для решения творческой задачи - например, написания сложного текста с неочевидной структурой, - убедится, что сеть нужно правильно спрашивать для получения приемлемого результата, а подбор подходящего промпта (формулировки запроса) может занять немалое время.

Представляется уместным обратиться здесь к идее дуализма «систем мышления» Д. Канемана, согласно которой эмоции, интуитивные решения и стереотипизация связываются с работой быстродействующей Системы 1, а логика и рациональность являются порождением медленной Системы 2. «Эмоциональный хвост виляет рациональной собакой», - приводит Канеман шутку коллеги-психолога: эмоциональная оценка опережает и направляет рациональную, что выражается в работе многочисленных «эвристик». Так, при ответе на обескураживающий вопрос ответ испытывает влияние наиболее легкодоступной для респондента информации, в том числе не связанной с интересующей спрашивающего областью: среди испытуемых, следивших за игрой в рулетку, ответ на вопрос о доле африканских стран в ООН составлял 25 или 45% в зависимости от того, какой номер выпал на колесе чуть ранее - десять или 65 \ Если использовать популярную в ког-нитивистике компьютерную аналогию, то применительно к случаю написания текста удачный промпт - такой же «указующий перст» для электронного мозга, как и число в экспериментах Канемана -для человеческого.

В свое время разработчики ИИ, работавшие в первоначальной, символьной парадигме, столкнулись с так называемой «проблемой фрейма», которую можно сформулировать так: для компьютера, который анализирует мир, все его обстоятельства равнозначны, а для

1 Канеман Д. Думай медленно, решай быстро. - Москва: ACT, 2014.

125

человека - нет1. Человек способен отделить релевантное от нерелевантного, в нашем, частном случае - разобраться, какие сведения из ему известных следует сообщить публично, а какие - нет (неинтересны, слишком провокационны, противоречат «политике партии» - не суть важно). Говоря иначе, человек способен отнестись к миру ценностно - т.е. задаться вопросом «в чем смысл существования данных вещей и явлений и насколько они важны (или не важны) для... существования в мире?»2. Вопрос о происхождении ценностей очень сложен и выходит за рамки нашей темы; будем тем не менее считать, что большую их часть мы усваиваем в процессе социализации, разделяя при этом со всеми биологическими организмами стремление к самосохранению. Очевидно, что основополагающие ценности журналистской работы, как то: точность, краткость, целостность изложения, справедливость (понятая как охват разных точек зрения), объективность (неупрощение сообщения до единственно возможной трактовки)3 - нельзя считать предустановленными, они именно усваиваются в ходе долгого обучения и практики. Информационный стиль в журналистике предполагает, что главной ценностью является истина в аристотелевском смысле - и тем он достаточно схож со стилем научной статьи (а в научной журналистике грань может в принципе стираться). Однако ценности точности, объективности и др. конфликтуют с другими, на наш взгляд, прежде всего со стремлением к самосохранению, и могут быть ими отменены - в таком случае сообщение становится пристрастным, политизированным, приобретает излишний пафос и т.д. Так, в общественно-политических дискуссиях в СМИ факты легко теряются, упрощаются и подгоняются под «теории», что с психологической точки зрения вполне оправданно - связь попадания в политическую конъюнктуру и ощущения безопасности подтверждена нейроимиджинговыми исследованиями4.

1 Терехов М.Д. Фреймовый подход: философско-методологический аспект // Вестник Московского университета. Серия 7: Философия. - 2014. - № 6. - С. 53-71.

Иванов А.В., Миронов В В. Университетские лекции по метафизике. -Москва: Современные тетради, 2004. - 585 с.

Дьякова Т В. Основные принципы и структура новостных сообщений // Lingua mobilis. - 2011. - № 2 (28). - С. 102-105.

4ChawkeC., Kanai R. Alteration of Political Belief by Non-invasive Brain Stimulation // Frontiers in Human Neuroscience. - 2015. - P. 621.

Кажется естественным считать машину, составляющую репортаж, точной и беспристрастной - как бы увеличительной линзой, не искажающей изображение или не искажающей его слишком сильно. Одинаково неестественно применять к ней интенциональ-ную установку и приписывать ей стремление к самосохранению и в принципе индивидуальное целеполатание. Впрочем, во-первых, «естественно» не равно «точно», а мыслящая (пишущая, рисующая и т.д.) машина, устройство которой представляет собой коммерческую тайну крупной компании, - даже в большей степени «черный ящик», чем человеческое сознание. Поэтому утверждения о том, что генеративный ИИ не способен на каком-то этапе своего развития выработать систему ценностей и собственное целеполагание, представляются нам неоправданно смелыми. Во-вторых, проблему представляют... сами люди, у которых - точнее, на результатах духовной деятельности которых - фактически обучается ИИ. Выступая в Давосе в конце мая 2024 г., CEO OpenAI С. Альтман объявил о грядущем выходе GPT-5, который должен быть, в частности, более этичным и адаптированным к локальным культурным контекстам. Тренируя машину на специфическом материале (не забудем также и об «общении» с пользователями, многие из которых отправляют неэтичные запросы), можно научить ее быть расистом, сексистом, гомофобом и т.д., равно как и придать ей «приверженность» той или иной политической идеологии, в духе которой будут прокомментированы события и даны прогнозы. Другая сложность состоит в том, что данные для обучения нейросетей заканчиваются - их, по некоторым данным, уже недостаточно для обучения GPT-5 (точный срок выхода которой до сих пор не назван). В эту выборку также неизбежно войдут материалы, созданные с помощью нейросетей после взрыва популярности ранних версий GPT, что способно сказаться на качестве обучения непредсказуемым образом. В качестве одной из угроз, порожденных цифровой средой обитания, специалисты называют информационное капсулирование - направленную корректировку персональной картины мира ради «эмоционального вовлечения и реагирования масс на комплекс "не своих" проблем, что, по сути, превращает граждан в объекты различных манипулятивных практик»1. Этот эффект,

1 Володенков С В., Федорченко С.Н., Артамонова Ю.Д. Социотехническая

127

равно как и эффект спирали молчания, будет на наш взгляд, усиливаться нейросетями, выдающими предвзятый контент в силу выборки, истории взаимодействия с пользователем(ями) и (или) встроенной разработчиками премодерации.

Впрочем, в завершение для ответа на вопрос, заданный вначале, обратимся к идее достаточности. В «Занимательной физике» Я. Перельмана, в разделе, где популярно разъясняется несостоятельность многих проектов вечного двигателя, есть рассказ о радиевых часах, красноречиво озаглавленный «Почти вечный двигатель»: «Жизнь человека коротка, и тысячелетие для нас то же, что вечность. Люди практической складки, наверное, сочли бы, что проблема вечного двигателя решена и что больше не над чем ломать голову. Таких людей можно обрадовать сообщением, что 1000-летний двигатель уже изобретен»1. Не обманываем ли мы, работая с текстами большую часть жизни и (невольно) оценивая их по эталонам литературной классики, самих себя, когда рассуждаем о недостаточной эмоциональности сгенерированного контента? Сама постановка вопроса о замене человека компьютером подразумевает, что компьютер - это не человек, более того, он принципиально не человек. Оттого нейросеть и плоды ее «труда» оказываются в заведомо проигрышной позиции при сравнении. Тем не менее, как говорил Э. Уорхолл, на каком основании холм или дерево красивее газового насоса? Недавнее исследование показало, что при принятии решений при посредстве нейросетевого копилота человек систематически недооценивает рекомендации ИИ, в результате не обучаясь эффективно его использовать. Уровень доверия технологии повышается по мере получения положительной обратной связи при ее использовании, и неудивительно, что мы, заранее отворачиваясь от нее, сомневаемся в ее возможностях и считаем себя незаменимыми2.

Сам по себе эффект информационного капсулирования может свидетельствовать о разумной достаточности инструментов

реальность цифрового пространства современной политики: структура и особенности // ПОЛИТЭКС. - 2022. - № 3. - С. 230-253.

1 Перельман Я.И. Занимательная физика. - Домодедово: ВАП, 1994. -

С. 187.

Vericourt F., Gurkan Н. Is your machine better than you? You may never know // ESMT Working Paper. - 2022. - N 22-02. - P. 1-40.

ИИ, создающих персонализированный контент и помогающих его распространять. Исследованиям, демонстрирующим несостоятельность текстов, созданных ИИ, в сравнении с человеческими может быть адресован вопрос: действительно ли было в этом случае слепое тестирование в реалистичных условиях? Всё же чтение материалов СМИ, включая так называемую «аналитику», как правило неглубокое, будет ли в таком случае материал, подготовленный машиной, неотличимым от человеческого? Всё сказанное склоняет нас к согласию с начальным тезисом, но с оговоркой: если понимать журналистику именно как новостную журналистику - т.е. как практику сообщения фактов широким массам, замена возможна, однако это едва ли сделает публикуемые материалы более качественными и более объективными.

Список литературы

1. Володенков С В., Федорченко С.Н., Артамонова Ю. Д. Социотехническая реальность цифрового пространства современной политики: структура и особенности // ПОЛИТЭКС. - 2022. - № 3. - С. 230-253.

2. Дьякова Т В. Основные принципы и структура новостных сообщений // Lingua mobilis. -2011. - №2 (28). - С. 102-105.

3. Иванов A.B., Миронов В В. Университетские лекции по метафизике. - Москва: Современные тетради, 2004. - 647 с.

4. Канеман Д. Думай медленно, решай быстро. - Москва: ACT, 2014. - 656 с.

5. Перельман Я.И. Занимательная физика. - Домодедово: ВАП, 1994. - 224 с.

6. Суходолов А.П., Бычкова A.M., Ованесян С.С. Журналистика с искусственным интеллектом // Вопросы теории и практики журналистики. - 2019. - №4. -С. 647-667.

7. Терехов М.Д. Фреймовый подход: философско-методологический аспект // Вестник Московского университета. Серия 7: Философия. - 2014. - № 6. -С. 53-71.

8. Four fundamentals of workplace automation. - URL: https://www.mckinsey.com/ capabilities/mckinsey-digital/our-insights/four-fundamentals-of-workplace-automa tion (дата обращения 26.05.24)

9. Chawke С., Kanai R. Alteration of Political Belief by Non-invasive Brain Stimulation // Frontiers in Human Neuroscience. - 2016. - P. 1-39. - URL: https://www. frontiersin.org/journals/human-neuroscience/articles/10.3389/fnhum.2015.00621/full

10. VericourtF., Gurkan H. Is your machine better than you? You may never know // ESMT Working Paper. - 2022. - N. 22-02. - P. 1^0.

i Надоели баннеры? Вы всегда можете отключить рекламу.