Синтез7 марта 2026 г. в 08:05

ИИ-генерированные видео и архивные кадры заполняют информационное поле конфликта с Ираном

Новые данные показывают масштабы синтетического контента в конфликте: даже крупные новостные издания распространяют поддельные видео. Одновременно США развернули собственные беспилотные системы, основанные на обратном инжиниринге иранских дронов.

Синтетический контент захватывает социальные сети

После начала американо-израильской операции против Ирана 28 февраля в социальных сетях началось массовое распространение видео- и фотоматериалов, якобы документирующих масштабные разрушения и взрывы. По данным Facebook и других платформ, значительная часть этого контента создана с использованием искусственного интеллекта или переиздаёт старые материалы.

Архивные кадры выдаются за новые события

Факт-чекеры из Snopes выявили, что видеоролик, широко распространяемый в социальных сетях якобы с новыми ударами Ирана по Тель-Авиву в марте 2026 года, на самом деле был снят во время конфликта в июне 2025 года. Пользователи сопровождали архивные кадры подписями вроде «Тель-Авив горит! Прямые удары иранских ракет, снятые в центре города!». Проверка через поиск по изображениям Google подтвердила, что видео впервые появилось в интернете 13 июня 2025 года. По данным The Guardian, в реальности ракеты Ирана в начале марта 2026 года действительно попали в районы Тель-Авива, но без жертв по сообщениям израильских служб спасения.

Государственные структуры стоят за дезинформацией

По сообщениям AP News, Reuters и других источников, значительная часть визуальной дезинформации о войне распространяется государственными участниками. Так, официальный аккаунт иранской газеты «Тегеран Таймс» в социальной сети опубликовал спутниковый снимок, якобы показывающий разрушенную американскую радарную станцию в Катаре. Анализ Financial Times выявил, что изображение было отредактировано с помощью ИИ: на нём были видны машины, стоящие в тех же позициях, что и год назад, тени падали под идентичными углами, а части здания были искусственно изменены. Подлинные спутниковые снимки компании Planet Labs от 1 марта подтверждали повреждения на объекте, но опубликованная фотография содержала явные признаки манипуляции.

Пост газеты получил около миллиона просмотров и был переопубликован тысячи раз, оставаясь в интернете более 48 часов после публикации.

Трудность обнаружения синтетического контента

По мнению Брэди Африка, исследователя открытых источников из American Enterprise Institute, спутниковые снимки часто воспринимаются как надёжный источник информации из-за продвинутых технологий съёмки. Однако они подвергаются манипуляции так же легко, как любые другие изображения. «Искусственный интеллект сделал этот процесс намного проще, что представляет серьёзную угрозу для людей, полагающихся на интернет при получении информации», — отметил Африка.

Хинк ван Ис (Henk van Ess), эксперт в методах интернет-исследований, подчеркнул, что выявление манипуляций со спутниковыми снимками сложнее, чем обнаружение дипфейков лиц: в снимках зданий и ландшафтов отсутствуют биометрические маркеры, которые выдают подделки в видео с людьми.

Платформы ужесточают контроль

В ответ на распространение синтетического контента платформа X (ранее Twitter) объявила о ужесточении мер. По словам Никиты Бер, главы отдела продуктов X, пользователи, опубликовавшие материалы, созданные ИИ без явного раскрытия этого факта, будут лишены доходов на платформе на 90 дней. Повторные нарушители могут столкнуться с постоянной блокировкой аккаунтов.

Эксперты предупреждают, что быстрое развитие моделей искусственного интеллекта может сделать выявление поддельных изображений ещё более сложным в будущих конфликтах.

Обновлено 11 марта в 15:48

CNN документирует масштабное распространение синтетического контента

По данным CNN, поддельные видео и изображения конфликта с Ираном, созданные с использованием ИИ, набрали десятки миллионов просмотров в социальных сетях за почти две недели с момента начала войны 28 февраля. Корреспондент CNN Дэниел Дейл разобрал несколько поддельных видео и дал рекомендации по проверке достоверности контента в интернете.

Это подтверждает ранее выявленную тенденцию: как сообщалось ранее, значительная часть визуального контента о конфликте создана с помощью ИИ или переиздаёт архивные материалы. Факт-чекеры и исследователи продолжают документировать масштабы дезинформации, включая спутниковые снимки с признаками ИИ-манипуляции и видео из видеоигр, выдаваемые за боевые кадры.

Обновлено 12 марта в 11:10

Крупные медиаиздания становятся жертвами ИИ-фальсификаций

По данным Frankfurter Rundschau (12 марта), синтетические видео конфликта с Ираном настолько убедительны, что их распространяют даже авторитетные новостные порталы. Издание отмечает, что видеоролики выглядят «поразительно реалистично» и часто сопровождаются описаниями якобы боевых операций. На социальных сетях это создаёт панику и разжигает враждебность, особенно когда контент переиздаётся без проверки подлинности.

США развернули собственные дроны на основе иранских систем

По сообщению Fox News (12 марта), США впервые применили в боевых операциях систему LUCAS — одноразовый боевой дрон, разработанный путём обратного инжиниринга сбитых иранских беспилотников. Система была создана на основе дронов, захваченных на Украине, и оснащена американскими системами наведения и интеграцией в сети разведки и наблюдения (ISR). LUCAS использовался в первых ударах по иранским объектам производства дронов и военной инфраструктуре.

Источник отмечает, что это отражает принципиальное различие в подходах: если Иран наращивает количество дешёвых дронов-«шахедов» для насыщения воздушного пространства, то США строят интегрированные системы, получающие целеуказания в реальном времени. Fox News указывает, что операция стала крупнейшим развёртыванием моделей искусственного интеллекта в истории Министерства обороны США — ИИ используется на всех уровнях принятия решений: от оценки разведданных до идентификации целей и моделирования боевых сценариев.

информационная войнаИИ и медиадезинформациясинтетический контентбеспилотники

Источники (51)