Научная статья на тему 'АКТУАЛЬНЫЕ ВОПРОСЫ ПРОТИВОДЕЙСТВИЯ ИСПОЛЬЗОВАНИЮ ТЕХНОЛОГИИ ДИПФЕЙКОВ'

АКТУАЛЬНЫЕ ВОПРОСЫ ПРОТИВОДЕЙСТВИЯ ИСПОЛЬЗОВАНИЮ ТЕХНОЛОГИИ ДИПФЕЙКОВ Текст научной статьи по специальности «Право»

CC BY
662
118
i Надоели баннеры? Вы всегда можете отключить рекламу.
Журнал
Юристъ - Правоведъ
ВАК
Область наук
Ключевые слова
ПЛАТФОРМА / ПРОГРАММНОЕ ОБЕСПЕЧЕНИЕ / ВИДЕО / ГОЛОС / ЛИЦО / ТЕХНОЛОГИИ / АЛГОРИТМ / ДИПФЕЙК / ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ

Аннотация научной статьи по праву, автор научной работы — Лемайкина Светлана Владимировна

В статье проведен анализ использования технологии дипфейков - новейшей технологии, основанной на применении нейросетей. Рассмотрены распространенные бесплатные приложения, применяемые для их создания. Проанализированы тренды развития дипфейков и средства их распознавания. Предложено решение по предупреждению использования данной технологии в совершении преступлений.

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

TOPICAL ISSUES OF COUNTERING THE USE OF DEEPFAKES TECHNOLOGY

The article analyzes the use of deepfakes technology - the latest technology based on the use of neural networks. The common free applications used to create them are considered. Trends in the development of deepfakes and their recognition tools are analyzed. A solution has been proposed to prevent the use of this technology in the commission of crimes.

Текст научной работы на тему «АКТУАЛЬНЫЕ ВОПРОСЫ ПРОТИВОДЕЙСТВИЯ ИСПОЛЬЗОВАНИЮ ТЕХНОЛОГИИ ДИПФЕЙКОВ»

УДК 343.34 : 004 ББК 67.408

© 2022 г. Лемайкина Светлана Владимировна,

начальник кафедры информационного обеспечения органов внутренних дел Ростовского юридического института МВД России. E-mail: [email protected]

АКТУАЛЬНЫЕ ВОПРОСЫ ПРОТИВОДЕЙСТВИЯ ИСПОЛЬЗОВАНИЮ ТЕХНОЛОГИИ ДИПФЕЙКОВ

В статье проведен анализ использования технологии дипфейков - новейшей технологии, основанной на применении нейросетей. Рассмотрены распространенные бесплатные приложения, применяемые для их создания. Проанализированы тренды развития дипфейков и средства их распознавания. Предложено решение по предупреждению использования данной технологии в совершении преступлений.

Ключевые слова: платформа, программное обеспечение, видео, голос, лицо, технологии, алгоритм, дипфейк, искусственный интеллект.

Lemaikina Svetlana Vladimirovna - Head of the Department of Information Support of Internal Affairs Bodies,

the Rostov Law Institute of the Ministry of Internal Affairs of Russia.

TOPICAL ISSUES OF COUNTERING THE USE OF DEEPFAKES TECHNOLOGY

The article analyzes the use of deepfakes technology - the latest technology based on the use of neural networks. The common free applications used to create them are considered. Trends in the development of deepfakes and their recognition tools are analyzed. A solution has been proposed to prevent the use of this technology in the commission of crimes.

Keywords: platform, software, video, voice, face, technology, algorithm, deepfake, artificial intelligence.

С развитием информационных технологий в современном интернет-пространстве находят свое отражение новые медийные явления. Так, например, понятие дипфейк/deep-fake (от англ. deep learning - глубокое обучение, fake - фальшивый) появилось относительно недавно. Следует отметить, что дип-фейк представляет собой фальсифицированный контент, основанный на применении искусственного интеллекта посредством наложения лиц и голосов известных личностей на различные видео- и аудиоматериалы. Цель использования технологии - правдоподобная имитация действий личности в интересах третьей стороны.

Свое начало технология берет в 90-х гг. XX в. Первые попытки не были особо успешными, но с развитием киноиндустрии, преимущественно в которой они и использовались, дипфейки стали активно развиваться и внедряться в кино и телевидении. В процессе изменения и освоения навыков фальсификации видео- и аудиоряда доступ к подобной технологии получили не только кино/видеорежиссеры, эксперты в этой индустрии, но и заурядные пользователи Интернета.

При наложении снимков друг на друга и их соединении образуется фото/видеопоток, генерируя сходства и отличия изображений,

загруженных в нейросеть. Например, анализируя компьютерными устройствами тысячи, а может, и миллионы фотографий Леонардо Ди Каприо, формируется определенная система закономерностей, на основе которых возникает новый контент в зависимости от уже имеющихся изображений в сети.

Перечислим несколько дипфейк-приложе-ний и инструментов, которые не требуют высокого класса компьютера или мобильного телефона [1].

Приложение Doublicat позволяет сделать селфи и поместить лицо человека на место другого человека. Лицо из селфи будет наложено на лицо Брэда Питта, Леонардо Ди Каприо или Тейлор Свифт. В этом приложении наложенное лицо принимает те же выражения, что и оригинал. По информации разработчиков Doublicat, само изображение удаляется с серверов сразу после его обработки.

FaceApp разработан российской компанией Wireless Lab. Приложение использует нейронные сети для генерации высокореалистичных преобразований лиц на фотографиях. Технология может заставить лицо улыбаться, выглядеть старше или моложе.

Эти два приложения предназначены для платформ Android и iOS и распространяются бесплатно.

Для платформы Windows применяется DeepFaceLab - ведущее программное обеспечение для создания подделок, которое использует новые нейронные сети для замены лиц в видео, размещенное на GitHub, в результате чего в Интернете бродит большое количество глубоких подделок видео. Их можно увидеть на популярных каналах YouTube, таких, как Ctrl Shift Face, iFake и Shamook. Программное обеспечение DeepFaceLab прекрасно работает, но требует технических знаний.

В платформах Windows, MacOS, Linux работает программное обеспечение FaceSwap, которое похоже на DeepFaceLab, но в первом программном обеспечении больше возможностей, инструкций, учебников и даже существует он-лайн-поддержка. Чтобы запустить этот инструмент, нужна мощная видеокарта, т. к. замена лица происходит невероятно медленно.

Очень интересна технология глубокой подделки Zao для платформы Android, iOS, позволяющая менять голоса и лица. Приложение содержит видеоклипы, наряды. Оно приобрело большую популярность, позволив пользователям обмениваться лицами с любимыми актерами в коротких клипах из телепередач и фильмов, став самым загружаемым в Китае.

Данные инструменты показывают, как быстро развивается поддельные аудио и видео. Однако многочисленные группы кибер-преступников учли эффективность воздействия нового информационного явления и стали использовать его в отрицательных и корыстных целях.

Любая фальсификация информации, выраженная в обмане общественных масс через неточность и искаженность, несет за собой значительные последствия для общества. Технологии генерации контента посредством дипфейков с каждым днем достигают все большей результативности высокого уровня, что нередко вводит в заблуждение людей, т. к. качественный дипфейк отличить от реальности достаточно сложно.

Явление дипфейка для мошенничества и манипуляции общественным мнением - это общественно-опасная угроза всему информационному сообществу.

С активным распространением подделок появилось огромное количество сведений о дискредитации, т. е. действиях, направленных на подрыв авторитета, имиджа и общественной важности у известных личностей,

чьи фото инициативно размещаются в сети Интернет. Фальсификация фотографий или видео с целью их публикации, нанесение все-ледствие этого репутационного урона - вполне реальная угроза, которая может быть реализована, если злоумышленник не получит деньги либо добьется иной цели.

Достаточно давно зафиксировано первое появление целевого фишинга - это одна из разновидностей информационной атаки, при которой сообщение отправляется определенному пользователю. Перед контактом мошенники особо тщательно собирают всевозможные персональные и конфиденциальные данные, которые в дальнейшем могут способствовать реализации неблагоприятных целей и задач. Киберпреступники тем самым исследуют интересы и увлечения пользователя, стараясь персонализировать последующий диалог полученных в ходе сбора информации данных, вливаясь в доверие собеседника и располагая его на контакт. Указанная технология может быть реализована как через единичных физических лиц, так и через общественные объединения.

Преступники ставят перед собой ряд задач, осуществляемых при помощи целевого фи-шинга - обмануть и получить денежную выгоду незаконным путем. Тем не менее пользователи сети Интернет XXI в. уже не идут на поводу у мошенников, которые активно используют фишинг, чего не скажешь о дип-фейках. Подкрепив текстовое письмо аудиозаписью голосовых сообщений, трудно предполагать, что возможен обман, а тем более использование такого сложносоставного явления как дипфейк.

Так, в 2019 г. была применена афера с использованием дипфейка. Генеральный директор крупной энергетической фирмы в Великобритании получил телефонный звонок якобы от своего начальника, но на самом деле это был сгенерированный искусственным интеллектом голос, в результате чего было спокойно выполнено поручение и переведена крупная сумма денег в течение часа [2].

Примеров отрицательного воздействия дипфейков на общественные массы множество, но неизменны лишь последствия. Развитие инновационной технологии есть существенный фактор, порождающий преступность, с которой необходимо соответствующим образом бороться правоохранительным органам. На данный момент проблема дип-

фейков остается сложной, т. к. явление относительно новое и методы, средства и способы противостояния киберпреступности не исследованы надлежащим образом.

Разработка и совершенствование технологий защиты от дипфейков являются одним из приоритетных направлений глобальной ки-бербезопасности.

Исследуя предлагаемые крупнейшими транснациональными компаниями средства защиты от дипфейков, можно найти достаточно много информации. Так, созданием программного обеспечения для выявления поддельных изображений на фото и видео уже несколько лет занимается DARPA - Управление перспективных исследовательских проектов Минобороны США. Facebook и Microsoft ежегодно проводят Deepfake Detection Challenge, в ходе которого тысячи разработчиков тестируют свои методы обнаружения дип-фейков.

В конце 2021 г. в России это направление включили в дорожную карту «Новые коммуникационные интернет-технологии». Этот документ был разработан «Ростелекомом» и утвержден Правительственной комиссией по цифровому развитию. По оценке экспертов, к 2024 г. объем мирового рынка технологий распознавания дипфейков увеличится с 8,7 млн долларов до 90 млн долларов, а российского -с 10,9 млн руб. до 119 млн рублей.

Постепенно разрабатываются инструменты для определения фальсифицированных изображений, но они лишь на первоначальном этапе производства, потому что дипфейк -явление, созданное при помощи искусственного интеллекта, а, следовательно, для борьбы с ним необходим аналогичный инструмент.

К концу 2022 г. Министерство внутренних дел получит программу «Зеркало» («Верблюд») для распознавания видео с заменой лиц - дип-фейков. Проведение научно-исследовательской работы «Исследование возможных способов выявления признаков внутрикадрово-го монтажа видеоизображений, выполненного с помощью нейронных сетей» продлится до 30 ноября 2022 г., а цена контракта на разработку составит 3,5 млн руб. [3].

При создании дипфейка с использованием самых современных технологий, всегда будет небольшая задержка между обнаружением новейших технологий распознаваний дипфейка и способностью технологий их выявить.

Дипфейки, в которые было вложено время и деньги, потенциально способны выдержать большинство тестов и, возможно, обмануть искусственный интеллект, но вера в опубликованное в сети настолько велика, что даже если эти подделки будут обнаружены, в них все равно поверит какая-нибудь группа людей.

Таким образом, важно иметь механизм проверки, т. е. доказательство того, какое видео является оригиналом, или что-то, что может указать, было ли изменено видео. Например такие компании, как Factom, Ambervid-eo и Axiom, кодируют данные о видео в неизменяемые блокчейны [4].

Перед обществом остро стоит вопрос о правовом регулировании дипфейков. Возможности их использования обширны, поэтому полный запрет на их создание и распространение не кажется перспективной мерой.

В мире пока есть два примера ограничений такого контента. В американском штате Калифорния, где многие IT-компании запретили дипфейки с кандидатами во время предвыборных кампаний, а также любые порнографические дипфейки. В Китае еще с 2020 г. за поддельные видео, как и за другие случаи распространения ложной информации, предусмотрена уголовная ответственность. Те, кто использует технологию ради шутки или в других легальных целях, могут просто промаркировать ролик, указав, что запись не настоящая [5].

Отмечается, что использование дипфейк-технологий может «поставить под угрозу национальную безопасность, подорвать социальную стабильность, а также нарушить общественный порядок и ущемить законные права и интересы граждан. Дипфейковые технологии вполне могут в будущем стать обычным инструментом в предвыборной гонке в России, если сегодня не принять законопроект, закрепляющий ответственность за халатное и преступное их использование [6].

Решением поставленной проблемы может быть своевременное и добросовестное информирование сотрудниками ОВД граждан о дискредитации пользователей. Помимо этого сотрудники ОВД обязаны постоянно повышать свою квалификацию, занимаясь изучением основ информационной безопасности и совершенствуя навыки противостояния кибермошенникам, что позволит им быть в курсе всех происходящих событий на просторах интернет-сообщества для решения актуальных проблем.

Литература

1. Киселев А.С. О необходимости правового регулирования в сфере искусственного интеллекта: дипфейк как угроза национальной безопасности // Вестник МГОУ. 2021. № 3.

2. 6 лучших Deepfake приложений и инструментов [Электронный ресурс]. URL: https:// new-science.ru/6-luchshih-deepfake-prilozhenij-i-instrumentov-v-2020-godu/ (дата обращения: 31.05.2022).

3. Аферы с дипфейками: какие угрозы скрываются за искусственными лицами? [Электронный ресурс]. URL: https://www.security-lab.ru/blog/company/PandaSecurityRus/3 51217. php (дата обращения: 28.05.2022).

4. Бег наперегонки: биометрические технологии vs deepfake [Электронный ресурс]. URL: https://recfaces.com/ru (дата обращения: 28.05.2022).

5. В России готовят закон против дипфей-ков: «Могут поставить под удар даже жизнь» [Электронный ресурс]. URL:https://fedpress.ru/ article/2951342 (дата обращения: 28.05.2022).

6. Криминальная жизнь дипфейков [Электронный ресурс]. URL: https://zavtra.ru/blogs/ kriminal_naya_zhizn_dipfejkov (дата обращения: 28.05.2022).

7. Могут ли быть обнаружены дипфейки в видео: как опознать подделку лица [Электронный ресурс]. URL: https://webznam.ru/blog/ dipfejki_v_video/2020-10-20-1601 (дата обращения: 28.05.2022).

8. Проект «Верблюд» поможет МВД России распознать дипфейки [Электронный ресурс]. URL: https://www.securitylab.ru/news/ 519728.php (дата обращения: 28.05.2022).

Bibliography

1. Kiselev A.S. On the need for legal regulation in the field of artificial intelligence: deepfake as a threat to national security // Bulletin of the Moscow State University. 2021. №» 3.

2. 6 best Deepfake applications and tools [Electronic resource]. URL: https://new-science.ru/6-luchshih-deepfake-prilozhenij-i-instrumentov-v-2020-godu / (date of access: 31.05.2022).

3. Deepfakes scams: what threats are hidden behind artificial faces? [Electronic resource]. URL: https://www.securitylab.ru/blog/company/PandaSe-curityRus/351217.php (date of access: 28.05.2022).

4. Running a race: biometric technologies vs deepfake [Electronic resource]. URL: https:// recfaces.com/ru (date of access: 28.05.2022).

5. In Russia, a law is being prepared against deepfakes: «Even life can be put at risk» [Electronic resource]. URL: https://fedpress.ru/article/2951342 (date of access: 28.05.2022).

6. Criminal life of deepfakes [Electronic resource]. URL: https://zavtra.ru/blogs/kriminal_ naya_zhizn_dipfejkov (date of access: 28.05.2022).

7. Can deepfakes be detected in the video: how to identify a fake face [Electronic resource]. URL: https://webznam.ru/blog/dipfejki_v_video/2020-10-20-1601 (date of access: 28.05.2022).

8. The Camel project will help the Ministry of Internal Affairs to recognize deepfakes [Electronic resource]. URL: https://www.securitylab.ru/news/ 519728.php (date of access: 28.05.2022).

i Надоели баннеры? Вы всегда можете отключить рекламу.