Телефон: 8-800-350-22-65
WhatsApp: 8-800-350-22-65
Telegram: sibac
Прием заявок круглосуточно
График работы офиса: с 9.00 до 18.00 Нск (5.00 - 14.00 Мск)

Статья опубликована в рамках: CXLIX Международной научно-практической конференции «Научное сообщество студентов XXI столетия. ТЕХНИЧЕСКИЕ НАУКИ» (Россия, г. Новосибирск, 12 мая 2025 г.)

Наука: Информационные технологии

Скачать книгу(-и): Сборник статей конференции

Библиографическое описание:
Гайдаржий В.С. DEEPFAKE КАК ИНСТРУМЕНТ ИНФОРМАЦИОННОГО ВЛИЯНИЯ // Научное сообщество студентов XXI столетия. ТЕХНИЧЕСКИЕ НАУКИ: сб. ст. по мат. CXLIX междунар. студ. науч.-практ. конф. № 5(147). URL: https://sibac.info/archive/technic/5(147).pdf (дата обращения: 29.05.2025)
Проголосовать за статью
Конференция завершена
Эта статья набрала 0 голосов
Дипломы участников
Диплом Выбор редакционной коллегии

DEEPFAKE КАК ИНСТРУМЕНТ ИНФОРМАЦИОННОГО ВЛИЯНИЯ

Гайдаржий Виктория Сергеевна

студент, кафедра бизнес-информатики и математических методов в экономике, Приднестровский государственный университет,

Приднестровье, г. Тирасполь

Саломатина Елена Васильевна

научный руководитель,

канд. техн. наук, доц., Приднестровский государственный университет,

Приднестровье, г. Тирасполь

DEEPFAKE AS A TOOL OF INFORMATIONAL INFLUENCE

 

Victoria Gaidarji

student, Department of Business Informatics and Mathematical Methods in Economics, Pridnestrovian State University,

Pridnestrovian Moldavian Republic, Tiraspol

Elena Salomatina

scientific supervisor, candidate of Sciences in Technology, associate professor, Pridnestrovian State University,

Pridnestrovian Moldavian Republic, Tiraspol

 

АННОТАЦИЯ

Исследована технология deepfake как инструмент информационного влияния. Раскрыты сферы её применения, потенциальные угрозы и примеры использования. Выделены риски дезинформации, мошенничества и политических манипуляций. Обозначены меры регулирования и противодействия. Сформулированы возможные сценарии развития технологии.

ABSTRACT

The deepfake technology is examined as a tool of informational influence. Its applications, potential threats, and real-world examples are presented. Risks such as disinformation, fraud, and political manipulation are outlined. Measures for regulation and counteraction are discussed. Possible development scenarios are formulated.

 

Ключевые слова: дипфейк, информационное влияние, дезинформация, искусственный интеллект.

Keywords: deepfake, informational influence, disinformation, artificial intelligence.

 

Сегодня мы живём в мире, где границы между реальностью и вымыслом становятся всё более размытыми. Технологии развиваются стремительно, и то, что ещё недавно казалось фантастикой, уже вошло в нашу жизнь. Одним из самых ярких и противоречивых явлений стали дипфейки — гиперреалистичные подделки видео, аудио и изображений, создаваемые с помощью искусственного интеллекта (ИИ).

Природа этой технологии двойственна. С одной стороны, дипфейки открывают невероятные творческие возможности. Они активно применяются в кино — для воссоздания образов ушедших актёров или создания зрелищных спецэффектов. В рекламе дипфейки позволяют создавать персонализированные ролики без участия актёров. В образовании они помогают проводить исторические реконструкции с максимальной реалистичностью [7]. Также существует множество онлайн-сообществ, посвященных созданию deepfake-мемов для развлечения.

С другой стороны, та же самая технология стала мощным инструментом обмана и манипуляций. Дипфейки позволяют создавать фрагменты реальности, которых не существовало: речи политиков, которых они не произносили, и события, которых не было. Эта возможность переписывать реальность вызывает серьёзную обеспокоенность экспертов и общества.

История технологии началась в 90-х годах, когда учёные делали первые попытки научить компьютеры создавать реалистичные изображения. Но настоящий прорыв произошёл в 2014 году, когда Ян Гудфеллоу представил генеративно-состязательные сети (GAN) – архитектуру глубокого обучения, где соревнуются две нейросети. Одна создаёт изображения, вторая пытается отличить их от реальных [5]. В конце 2017 года пользователь Reddit под ником «deepfakes» использовал глубокое обучение для замены лиц знаменитостей в видеороликах и выкладывал их в сеть. Это открытие вызвало ажиотаж в СМИ, и дало толчок появлению большого количества новых видео с дипфейками.

Для создания видеодипфейков используются сложные модели, включающие автоэнкодеры и рекуррентные нейронные сети (RNN), способные обрабатывать последовательности кадров и звука для сохранения целостности движения и речи. Современные алгоритмы анализируют мимику, движения губ и интонации голоса, чтобы синхронизировать все элементы в единое целое.

Дипфейки применяют в трёх ключевых форматах, каждый из которых опасен по-своему. Видеофальсификации: алгоритмы вроде StyleGAN3 меняют не только лица, но и движения тела, мимику, фон. В 2019 году художники из проекта «Восстающий против машины» создали ролик, где Марк Цукерберг «признается» в манипулировании данными пользователей [9]. На самом деле это видео было сделано с использованием технологий deepfake и распространилось в интернете как часть эксперимента по изучению влияния фальшивого контента.

Аудиофальсификации, основанные на GAN и NLP, очень точно синтезируют голос. Например, фальшивые голосовые сообщения от президента Джо Байдена, распространенные во время внутрипартийных выборов в Нью-Гэмпшире для дезинформации избирателей [4].

Фотографические дипфейки используют GAN для создания синтетических изображений, как, например, в мае 2023 года твиттер-аккаунт с фальшивыми фото «взрыва у Пентагона», вызвавший панику на фондовом рынке США [10]. Изображения, сгенерированные Midjourney v5, оказались настолько убедительными, что их не сразу распознали даже алгоритмы Reuters.

Угрозы, которые несут с собой дипфейки, можно классифицировать по нескольким основным направлениям.

Первое направление — дезинформация и распространение фальшивых новостей. Посредством дипфейков создаются поддельные видео- и аудиоматериалы, которые вводят общество в заблуждение и разрушают доверие к средствам массовой информации [1].

Второе направление — финансовое мошенничество. Показательный пример произошел в 2020 году в Объединенных Арабских Эмиратах, где преступники, имитировали голос руководителя компании и обманули сотрудников банка, похитив $35 млн. [2].

Третье направление — нанесение ущерба репутации и кибербуллинг. Злоумышленники получили возможность создавать компрометирующие видеоматериалы, которые используются для шантажа или дискредитации конкретных лиц. Кроме того, с помощью искусственного интеллекта генерируются фальшивые отзывы, что существенно затрудняет выявление недостоверной обратной связи в различных сервисах [8].

Четвертое направление — политические манипуляции и ведение гибридных войн. Дипфейки стали инструментом вмешательства в избирательные процессы и подрыва доверия к государственным структурам. Так, например, в сентябре 2023 года в Словакии, когда за два дня до выборов была опубликована поддельная аудиозапись разговора лидера партии «Прогрессивная Словакия», якобы обсуждающего планы по фальсификации выборов [12].

Технология дипфейков поднимает серьезные этические вопросы о границах между творческим самовыражением и преднамеренным обманом. Эта двойственность порождает необходимость законодательного регулирования данной технологии. На федеральном уровне в США, России, Индии законодательство только формируется. Запрет на создание и использование дипфейков в определённых ситуациях действует в некоторых штатах США. В Южной Корее законодательство запрещает распространение дипфейков без согласия, особенно если это наносит вред репутации. В Китае закон о синтетическом контенте уже действует: требуется маркировка дипфейков, запрещено распространять без указания, что это подделка. В России обсуждаются законодательные инициативы по дипфейкам, особенно в контексте защиты национальной безопасности и борьбы с фейковой информацией. Есть полномочия блокировать контент, признанный опасным. Но текущие меры больше касаются борьбы с дезинформацией в соцсетях, а не отдельно с дипфейками [3].

Для эффективного противодействия негативным аспектам технологии дипфейков необходима разработка результативных методов выявления и нейтрализации поддельного контента. Борьба ведётся на трёх уровнях: техническом (разработка алгоритмов распознавания), правовом (совершенствование законодательной базы) и образовательном (повышение уровня медиаграмотности населения) [6].

Перспективы развития технологии дипфейков определяются именно этими ключевыми факторами. Рассмотрим два наиболее вероятных варианта развития событий.

Первый — оптимистичный. Дипфейки станут полезным инструментом, приносящим пользу в различных сферах жизнедеятельности. Помимо уже упомянутых ранее возможностей в киноиндустрии и образовании, данная технология обнаруживает значительный потенциал в области психотерапии. Экспериментальные исследования показывают перспективность создания персонализированных терапевтических пространств с использованием виртуальной реальности и генеративного ИИ, где пациенты могут активно участвовать в формировании своего лечебного окружения [11]. В этом сценарии важнейшее условие — строгий контроль и соблюдение этических норм.

Пессимистичный сценарий рассматривает ситуацию отсутствия надлежащего контроля над технологией, что приведет к усугублению информационных угроз. Это дезинформация, политическая манипуляция, киберпреступления, фальшивые звонки и изображения для шантажа, создание поддельных биометрических данных [13]. Всё это подрывает доверие людей к информации и правосудию.

Развитие технологий искусственного интеллекта сделало создание реалистичного поддельного контента доступным практически для каждого. Злоумышленники активно используют эти возможности для распространения целенаправленной дезинформации, чтобы дискредитировать конкретных людей или организации, а также провоцировать социальную напряженность, психологический дискомфорт и политические конфликты в обществе.

Между методами генерации и обнаружения дипфейков идет холодная война. Каждое усовершенствование технологии любой стороны создает проблемы для другой. Этот непрерывный цикл технологического противостояния создает постоянно меняющуюся среду информационной безопасности. В таких условиях простые запретительные меры оказываются неэффективными. Необходим комплексный подход к проактивному управлению технологиями дипфейк.

 

Список литературы:

  1. Бейненсон В.А. Методика обнаружения манипулятивной и недостоверной информации в массмедиа. Учебно-методическое пособие по курсу «Психология журналистики» / В.А. Бейненсон. – Нижний Новгород: Изд-во ННГУ, 2022. – 57 с.
  2. Белая книга этики в сфере искусственного интеллекта/ под ред. А.В. Незнамова. — М.: Nova Creative Group, 2024. — 200 с.
  3. Бодров Н.Ф. Понятие дипфейка в российском праве, классификация дипфейков и вопросы их правового регулирования / Н.Ф. Бодров, А.К. Лебедева // Юридические исследования. – 2023. – № 11. – С. 26-41. – DOI 10.25136/2409-7136.2023.11.69014.
  4. В США обеспокоились из-за распространения фейкового аудиосообщения Байдена. URL: https://lenta.ru/news/2024/01/23/v-ssha-obespokoilis-iz-za-rasprostraneniya-feykovogo-audiosoobscheniya-baydena/ (дата обращения: 03.05.2025).
  5. Дипфейки: риски и возможности для бизнеса. — Москва: ФРИИ, 2024. — 84 с.
  6. Добробаба М.Б. Дипфейки как угроза правам человека / М.Б. Добробаба // Lex Russica (Русский закон). – 2022. – Т. 75, № 11(192). – С. 112-119. – DOI 10.17803/1729-5920.2022.192.11.112-119
  7. Классификация механизмов атак и исследование методов защиты систем с использованием алгоритмов машинного обучения и искусственного интеллекта / И.В. Володин, М.М. Путято, А.С. Макарян, В.Ю. Евглевский // Прикаспийский журнал: управление и высокие технологии. – 2021. – № 2(54). – С. 91-98. – DOI 10.21672/2074-1707.2021.53.1.090-098.
  8. Мазуркевич Г. Интернет захватили поддельные отзывы, созданные нейросетями URL: https://vfokuse.mail.ru/article/internet-zahvatili-poddelnye-otzyvy-sozdannye-nejrosetyami-64270130/ (дата обращения: 03.05.2025).
  9. Мун Д.В., Попета В.В. Развитие и распространение технологий «deepfake»: угрозы, риски и вызовы для глобального информационного сообщества //Информация и инновации. – 2020. – Т. 15. – №. 1. – С. 23-35.
  10. Сгенерированное ИИ фото атаки на Пентагон обрушило финансовые рынки. URL: https://www.cnews.ru/news/top/2023-05-23_sgenerirovannoe _ii_izobrazhenie (дата обращения: 03.05.2025).
  11. Della Greca A. et al. Enhancing therapeutic engagement in Mental Health through Virtual Reality and Generative AI: a co-creation approach to trust building //2024 IEEE International Conference on Bioinformatics and Biomedicine (BIBM). – IEEE, 2024. – С. 6805-6811.
  12. Labuz M., Nehring C. On the way to deep fake democracy? Deep fakes in election campaigns in 2023 //European Political Science. – 2024. – Т. 23. – №. 4. – С. 454-473.
  13. Vecchietti G., Liyanaarachchi G., Viglia G. Managing deepfakes with artificial intelligence: Introducing the business privacy calculus //Journal of Business Research. – 2025. – Т. 186. – С. 115010
Проголосовать за статью
Конференция завершена
Эта статья набрала 0 голосов
Дипломы участников
Диплом Выбор редакционной коллегии

Оставить комментарий