Опасность дипфейков: Эксперимент с участием Кюбры Магеррамовой

Происшествия
  • 27 февраля, 2026
  • 11:43
Опасность дипфейков: Эксперимент с участием Кюбры Магеррамовой

Распространение в социальных сетях провокационных фото- и видеоматериалов, якобы принадлежащих сотруднице Global Media Group, известной журналистке Кюбре Магеррамовой, вызвало эффект разорвавшейся бомбы и породило волну бурных обсуждений в азербайджанском сегменте Сети.

Как сообщает Report со ссылкой Oxu.Az, после публикации скандальной новости, телефоны коллег Кюбры Магеррамовой и офиса компании разрывались от звонков и сообщений. Читатели и зрители пребывали в шоке, выражая недоумение: "Мы не ожидали такого поведения". Парадоксально, но факт: у большинства пользователей сложилось твердое убеждение в подлинности кадров. В эпоху цифрового доверия практически никто не допустил мысли, что это может быть высокотехнологичная подделка - дипфейк (deepfake).

На самом же деле, шокирующие кадры были созданы искусственно в рамках эксперимента по проверке возможностей современного искусственного интеллекта (ИИ), проведенного в эфире Baku TV.

Все точки над i были расставлены в ходе интервью главного редактора Baku TV Ru Нателлы Османлы с продюсером популярного приложения Reface Полиной Ковалевской. Темой беседы стали безграничные и пугающие возможности новых технологий. Было отмечено, что сегодня искусственный интеллект (ИИ) позволяет генерировать контент, который практически невозможно отличить от реальности, используя лишь несколько фотографий или коротких видео, опубликованных человеком в открытом доступе.

Для наглядной демонстрации механизма работы этой технологии в качестве "жертвы" эксперимента выступила гостья программы - журналистка Кюбра Магеррамова. За основу было взято одно из ее обычных фото из социальной сети. С помощью инструментов ИИ в кратчайшие сроки был сгенерирован контент, который выглядел пугающе реалистично, но являлся абсолютной фальсификацией.

У тех, кто видел готовые фото и видео, возникла полная иллюзия реальности. Идеальная синхронизация черт лица, мимики и движений продемонстрировала темную сторону прогресса и в каких опасных целях может быть использована эта технология.

Упомянутое приложение Reface было запущено в 2018 году. В его основе лежат передовые алгоритмы машинного обучения, известные как GAN (Generative Adversarial Network - генеративно-состязательная сеть). Эта технология работает по принципу соревнования двух нейросетей: одна создает подделку, а вторая пытается отличить ее от оригинала. В результате качество "фейка" доводится до совершенства. Это популярное мобильное приложение позволяет пользователям менять лица в видео, GIF-файлах и фото (функция face-swap), вставлять себя в сцены из фильмов или клипов. Приложение также содержит инструменты для создания ИИ-аватаров, смены причесок и коррекции стиля изображений.

Эксперты по кибербезопасности бьют тревогу: хотя ИИ призван облегчить нашу жизнь, в руках злоумышленников он становится "оружием массового поражения репутации". Цифровой шантаж, разрушение психики и удар по личной жизни - реальные угрозы. Ярким примером этому служат недавние инциденты с созданием фальшивых и неэтичных изображений студенток Бакинского государственного университета, что вызвало широкий общественный резонанс.

Отметим, что эксперимент с участием Кюбры Магеррамовой преследовал важную социальную цель - дать обществу четкий месседж: в современном мире нельзя слепо верить всему, что вы видите на экране смартфона. Доверие, формируемое годами, может быть разрушено за секунды алгоритмами искусственного интеллекта и чьим-то злым умыслом. И целью такой атаки может стать абсолютно любой человек.

Представляем вашему вниманию видеосюжет передачи Baku TV, раскрывающий детали этого эксперимента:

Опасность дипфейков: Эксперимент с участием Кюбры Магеррамовой

Последние новости

Лента новостей