Научная статья на тему 'Будущее медийных манипуляций: новые технологии и подходы'

Будущее медийных манипуляций: новые технологии и подходы Текст научной статьи по специальности «СМИ (медиа) и массовые коммуникации»

CC BY
48
7
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
искусственный интеллект / медийные манипуляции / машинное обучение / этические дилеммы / персонализация контента / приватность данных / регулирование технологий / Artificial Intelligence / Media Manipulation / Machine Learning / Ethical Dilemmas / Content Personalization / Data Privacy / Technology Regulation

Аннотация научной статьи по СМИ (медиа) и массовым коммуникациям, автор научной работы — Дегтярев Кирилл Юрьевич

Эта статья исследует будущее медийных манипуляций в контексте последних достижений в области искусственного интеллекта и машинного обучения. Освещаются основные тенденции и потенциальные риски, связанные с новыми медиа-технологиями, а также обсуждаются возможные пути регулирования этих технологий для предотвращения их злоупотребления.

i Надоели баннеры? Вы всегда можете отключить рекламу.

Похожие темы научных работ по СМИ (медиа) и массовым коммуникациям , автор научной работы — Дегтярев Кирилл Юрьевич

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

The Future of Media Manipulations: New Technologies and Approaches

This article explores the future of media manipulations in the context of the latest advancements in artificial intelligence and machine learning. It highlights the main trends and potential risks associated with new media technologies, and discusses possible ways to regulate these technologies to prevent their misuse.

Текст научной работы на тему «Будущее медийных манипуляций: новые технологии и подходы»

Дегтярев Кирилл Юрьевич

обучающийся магистратуры, факультет социальных наук и массовых коммуникаций, Финансовый университет при Правительстве Российской Федерации

Ленинградский пр-т., 49, Москва, 125167 E-mail: [email protected]

Будущее медийных манипуляций: новые технологии и подходы

Эта статья исследует будущее медийных манипуляций в контексте последних достижений в области искусственного интеллекта и машинного обучения. Освещаются основные тенденции и потенциальные риски, связанные с новыми медиа-технологиями, а также обсуждаются возможные пути регулирования этих технологий для предотвращения их злоупотребления.

Ключевые слова: искусственный интеллект, медийные манипуляции, машинное обучение, этические дилеммы, персонализация контента, приватность данных, регулирование технологий.

Для цитирования: Дегтярев К.Ю. Будущее медийных манипуляций: новые технологии и подходы // Вопросы медиабизнеса. 2022. Т. 1. № 3. С. 19-22. DOI: 10.24412/3034-1930-2022-0170

Kirill Yu. Degtyarev

Master's Student, Faculty of Social Sciences and Mass Communications, Financial University under the Government of the Russian Federation

Leningradsky Ave., 49, Moscow, 125167 E-mail: [email protected]

The Future of Media Manipulations: New Technologies and Approaches

This article explores the future of media manipulations in the context of the latest advancements in artificial intelligence and machine learning. It highlights the main trends and potential risks associated with new media technologies, and discusses possible ways to regulate these technologies to prevent their misuse.

Keywords: Artificial Intelligence, Media Manipulation, Machine Learning, Ethical Dilemmas, Content Personalization, Data Privacy, Technology Regulation.

JEL Classification: L82

For citation: Degtyarev K.Yu. The Future of Media Manipulations: New Technologies and Approaches. Issues of Media Business, 2022, vol. 1, no.

3, pp. 19-22. DOI: 10.24412/3034-1930-2022-0170 19

В!

ведение в тему будущих медийных манипуляций раскрывает значительную роль, кото. рую современные технологии играют в формировании информационного пространства. В ' эпоху цифровизации искусственный интеллект (ИИ) и машинное обучение (ML) активно трансформируют медиаиндустрию, влияя на методы создания, распространения и потребления контента. Эти технологии не только ускоряют процессы обработки данных, но и открывают новые возможности для персонализации пользовательского опыта, что теоретически должно способствовать повышению качества и доступности информации.

Однако, наряду с очевидными преимуществами, применение ИИ в медиа порождает и определенные риски, в частности, возможность манипуляций с общественным сознанием на необычайно широком масштабе [Carlson, 2015; Guzman, Lewis, 2020]. Медийные технологии становятся инструментами, способными формировать определённые взгляды и мнения, что делает вопросы этики и регулирования особенно актуальными. Ведь когда речь идёт о манипуляции информацией, ставки оказываются чрезвычайно высоки: от политической пропаганды до создания искусственных социальных настроений, которые могут иметь далеко идущие последствия для общества в целом.

В этом контексте становится важным не только разрабатывать новые технологии, но и внимательно анализировать потенциальные угрозы, которые они могут представлять, а также разрабатывать механизмы контроля и баланса, которые помогут обеспечить использование медийных инноваций в интересах всего общества, а не отдельных его частей или внешних заинтересованных сторон.

Развитие технологий оказывает колоссальное влияние на медиаиндустрию, меняя традиционные подходы к созданию, распространению и потреблению медиаконтента. В последние годы, с появлением искусственного интеллекта (ИИ) и машинного обучения (ML), медиа сфера переживает настоящий технологический бум. Эти инновации не только ускоряют обработку данных и улучшают качество контента, но и создают новые формы взаимодействия с аудиторией.

Искусственный интеллект проникает во все аспекты медиапроизводства, начиная от автоматизации сбора данных и заканчивая персонализацией пользовательского опыта. Системы ИИ способны анализировать большие объемы информации за доли секунд, предоставляя медиаком-паниям уникальную возможность понимать предпочтения своих потребителей лучше, чем когда-либо прежде. Это, в свою очередь, позволяет медиаплатформам предлагать контент, который идеально соответствует интересам конкретного пользователя, увеличивая тем самым уровень вовлеченности и удовлетворенности аудитории.

Кроме того, ИИ и ML революционизируют процесс создания контента. Программы, основанные на этих технологиях, способны самостоятельно генерировать новостные статьи, музыкальные произведения и даже видеоконтент. Например, некоторые новостные агентства уже используют ИИ для автоматического создания новостных отчетов о спортивных событиях или финансовых результатах. Такие системы анализируют входящие данные, такие как счета матчей или акционерные отчеты, и формулируют из них четко структурированные и информативные статьи.

Однако вместе с возможностями, которые открывает использование ИИ в медиа, возникают и новые вызовы. Одним из таких вызовов является вопрос о точности и надежности автоматически создаваемого контента. Ведь даже самые совершенные алгоритмы не застрахованы от ошибок, особенно в случаях, когда анализируемые данные искажены или неполны. Это ставит перед медиакомпаниями задачу постоянного контроля качества ИИ-генерированного контента, чтобы предотвратить распространение фальшивых новостей и другой недостоверной информации.

Также важным аспектом является влияние ИИ на труд медиа профессионалов. С одной стороны, автоматизация рутинных задач может значительно облегчить их работу, освобождая время для более креативных и аналитических задач. С другой стороны, растущая зависимость от технологий вызывает опасения по поводу сокращения рабочих мест и уменьшения ценности профессиональных навыков в медиа.

Кроме того, расширение применения ИИ в медиа порождает новые этические дилеммы. Вопросы приватности данных становятся особенно актуальными, поскольку для эффективной работы персонализированных алгоритмов необходим доступ к большому объему личной информации пользователей. Медиакомпании должны найти баланс между использованием данных для улучшения сервиса и защитой прав своих пользователей на конфиденциальность.

Таким образом, интеграция искусственного интеллекта в медиапроцессы открывает перед индустрией новые горизонты возможностей и вызовов. Ответственное и осознанное использование этих технологий может значительно повысить качество и доступность медиапродукции, од-20 нако требует тщательного рассмотрения возникающих этических и профессиональных вопросов.

Будущее медийных манипуляций: новые технологии и подходы

Продолжая анализ воздействия развития технологий на медиа, стоит уделить особое внимание механизмам медийной манипуляции, которые становятся все более изощренными с прогрессом в области искусственного интеллекта (ИИ) и машинного обучения (ML). Эти технологии открывают новые возможности не только для создания и распространения информации, но и для её искажения и манипуляции, что может иметь далеко идущие последствия для общества и демократии.

Манипуляция медийным контентом начинается с сбора и анализа больших объемов данных о пользователе, что позволяет медиакомпаниям и технологическим платформам создавать персонализированные потоки контента, максимально отвечающие интересам и предпочтениям аудитории. ИИ способен выявлять тонкие шаблоны поведения и предпочтения пользователей, что используется для формирования контента, который будет наиболее привлекателен и, что более важно, влиятелен. Такой подход может способствовать не только удержанию внимания аудитории, но и манипуляции общественным мнением, направляя общественное восприятие в интересующем заказчика направлении.

Одним из основных инструментов манипуляции является использование алгоритмов, которые формируют эхо-камеры и информационные пузыри, усиливая предвзятость и изолируя пользователей от контрастирующих взглядов. Это достигается путем предоставления контента, который подтверждает существующие убеждения аудитории, что может привести к поляризации общественных настроений и усилению социальных разделений. ИИ усиливает этот процесс, предоставляя точные инструменты для анализа и таргетирования контента, что делает манипуляции более тонкими и менее заметными для пользователей.

Применение искусственного интеллекта также расширяет возможности для создания и распространения фальсифицированного контента, такого как deepfake видео и аудио [Thompson, Bremmer, 2018]. Эти технологии позволяют создавать убедительные подделки, которые могут быть использованы для дезинформации или искажения фактов, подрывая доверие к медийным источникам и институтам. В результате, даже несмотря на повышенное осведомление о существовании таких технологий, общественность может испытывать затруднения в определении достоверности информации, что усугубляет проблему медийной грамотности.

Кроме того, алгоритмическая оптимизация под вовлеченность способствует распространению контента, который вызывает сильные эмоциональные реакции, независимо от его объективности или достоверности. Таким образом, информация, которая способствует возникновению страха, гнева или иных сильных чувств, имеет большую вероятность стать вирусной, что может быть использовано для манипулирования общественным восприятием кризисных ситуаций или важных общественных вопросов.

Интеграция искусственного интеллекта в медийное производство и распространение информации, таким образом, представляет собой двойственное явление. С одной стороны, она предоставляет значительные возможности для улучшения качества и доступности медиаконтента. С другой стороны, она открывает широкие перспективы для манипуляции и дезинформации, что требует внимательного регулирования и контроля, чтобы минимизировать потенциальный ущерб для общества и поддерживать основы демократического общественного порядка.

В контексте быстрого развития технологий и углубления медийной манипуляции, этические и правовые аспекты становятся критически важными для поддержания доверия и стабильности в обществе. Осознание потенциально разрушительного воздействия медийной манипуляции на демократические процессы и личные свободы подчеркивает необходимость строгого регулирования и этических стандартов в использовании искусственного интеллекта и машинного обучения в медиасфере.

Одним из основных этических вопросов является проблема конфиденциальности данных. Сбор и анализ огромных массивов информации о пользователях, необходимых для функционирования персонализированных алгоритмов, поднимает вопросы о правах на приватность. Необходим баланс между сбором данных для улучшения пользовательского опыта и защитой личной информации от злоупотреблений. В этом контексте законодательство, такое как Общий регламент защиты данных (GDPR) в Европейском Союзе, ставит перед медиакомпаниями строгие требования по обработке личных данных, обязывая их получать явное согласие от пользователей и предоставлять им полный контроль над своей информацией.

Другая значимая проблема — ответственность за распространение манипулирующего или искаженного контента. В условиях, когда алгоритмы способны самостоятельно создавать и распространять новостные материалы, возникает вопрос о том, кто несет ответственность за ошибки или предвзятость в этих материалах. Разработчики алгоритмов и владельцы платформ должны обеспечивать, чтобы их продукты не становились инструментами дезинформации. Это включает 21

в себя не только программное обеспечение для выявления и устранения предвзятости в алгоритмах, но и юридические меры для регулирования распространения фальшивого контента.

Важным аспектом является также защита авторских прав в условиях, когда ИИ может создавать произведения, сопоставимые по качеству с творчеством человека. Определение авторства и прав на произведения, созданные с помощью ИИ, требует новых подходов в законодательстве, чтобы гарантировать справедливое вознаграждение для всех участников творческого процесса.

Кроме того, международное сотрудничество и стандартизация регуляторных рамок могут способствовать созданию единых правил игры для медиакомпаний, работающих в глобальном информационном пространстве. Это особенно важно в контексте того, как легко информация пересекает границы, что делает локальные этические и правовые нормы неэффективными без широкой международной поддержки и сотрудничества.

Этические и правовые аспекты использования ИИ в медиа охватывают широкий спектр вопросов, от приватности и ответственности до авторских прав и международного сотрудничества. Решение этих вопросов необходимо для обеспечения того, чтобы преимущества технологий служили интересам всего общества, а не становились источником манипуляций и злоупотреблений.

В заключение анализа воздействия развития технологий на медиа и медийной манипуляции, становится ясно, что технологический прогресс приносит как значительные возможности, так и серьезные вызовы для современного информационного общества. Искусственный интеллект и машинное обучение, став все более интегрированными в процессы создания и распространения медиаконтента, открывают новые горизонты для персонализации и повышения качества информации. Однако эти же инструменты могут быть использованы для манипуляции и дезинформации, подрывая доверие и стабильность в обществе.

С одной стороны, технологии улучшают доступность и релевантность медиаконтента, обеспечивая пользователей информацией, которая точно соответствует их интересам и предпочтениям. Это способствует более глубокому вовлечению и удовлетворенности аудитории, что является безусловным плюсом для медиа компаний и рекламодателей. Однако, та же персонализация может приводить к созданию информационных пузырей и эхо-камер, ограничивая экспозицию разнообразных мнений и способствуя усилению предвзятостей и социальных разделений.

С другой стороны, рост мощности и сложности ИИ ставит перед обществом вопросы этической и правовой природы [Xie, 2022]. Проблемы, связанные с конфиденциальностью данных, ответственностью за контент, созданный ИИ, и защитой авторских прав, требуют разработки новых нормативных документов и стандартов. Эти меры должны обеспечивать не только защиту прав пользователей и авторов, но и предотвращение злоупотреблений со стороны медиакомпа-ний и технологических платформ.

Задача обеспечения сбалансированного и ответственного подхода к использованию ИИ в медиа становится все более актуальной. В этом контексте важно поддерживать открытый диалог между разработчиками технологий, медиа профессионалами, регуляторами и обществом. Совместные усилия помогут формировать этические основы использования ИИ, что позволит извлекать из новых технологий максимальную пользу, минимизируя при этом риски и негативные последствия для демократии и социальной гармонии.

Алгоритмические рекомендательные системы имеют значительное влияние на медиапо-требление и медиаповедение пользователей. Они формируют информационную повестку дня, ограничивают доступ к разнообразной информации и могут приводить к формированию информационных пузырей. Важно продолжать исследования в этой области, чтобы развивать более эффективные и этичные алгоритмические рекомендательные системы, которые способствуют разностороннему и глубокому медиапотреблению.

References

Carlson M. The Robotic Reporter: Automated journalism and the redefinition of labor, compositional forms, and journalistic authority. Digital Journalism, 2015, vol. 3, no. 3, pp. 416-431.

Guzman A.L., Lewis S.C. Artificial intelligence and communication: A human-machine communication research agenda. New media & society, 2020, vol. 22, no. 1, pp. 70-86.

Thompson N., Bremmer I. The AI cold war that threatens us all. Wired, 2018, vol. 23.

Xie Z. Impact of Artificial Intelligence on New Media Operations and Communication. The 2021 International Conference on Machine Learning and Big Data Analytics for IoT Security and Privacy: SPIoT-2021. Springer International Publishing, 2022, vol. 1, pp. 404-411.

i Надоели баннеры? Вы всегда можете отключить рекламу.