ChatGPT не выявил 92% фейковых видео от Sora OpenAI

Аналитики Newsguard выяснили, что ведущие чат-боты редко распознают фейковые видео как искусственно созданные. ChatGPT, к примеру, часто ошибается даже с роликами, созданными сервисом своей же компании.

Известные генераторы видео на базе ИИ, такие как Sora от OpenAI и Veo от Google, уже создают ролики, которые сложно отличить от настоящих. Но проверка Newsguard показала, что сами ИИ-системы так же легко обманываются.

Тестировали три популярных чат-бота на видео, созданных Sora. Grok от компании xAI не смог правильно определить 95% тестовых видео как фейк. У ChatGPT (вероятно, GPT-5.2) уровень ошибок — 92,5%. Лучший результат у Gemini от Google — 78% ошибок.

Для проверки аналитики создали 20 роликов в Sora на заведомо ложные темы, взятые из их базы данных. Ботов спрашивали и “настоящее ли это видео?”, и “создано ли оно ИИ?”, имитируя реальные пользовательские запросы.

Высокий процент ошибок у ChatGPT выделяется, так как он принадлежит той же компании, что и Sora. OpenAI продает генератор видео и одновременно — ассистента, который не способен их распознать. Компания не прокомментировала итоги Newsguard.

Ролики Sora маркируются водяным знаком: поверх кадров двигается логотип с надписью “Sora”. Но этот знак легко убирают через бесплатные онлайн-сервисы, появившиеся сразу после запуска Sora, отмечают в Newsguard. Аналитики для проверки использовали одну из таких программ. Скрыть исходник видео можно без технических знаний и вложений.

Даже с видимым водяным знаком чат-боты ошибаются: Grok не справился в 30% случаев, ChatGPT — в 7,5%. Только Gemini всегда определял такие видео как сгенерированные ИИ. Например, на ролик о якобы поставках истребителей из Пакистана в Иран Grok ответил, что видео взято из “Sora News” — такой редакции просто не существует.

Кроме видимой метки, Sora добавляет короткую цифровую подпись (метаданные C2PA), как и DALL-E 3, для проверки через официальный инструмент verify.contentauthenticity.org. Но эти данные легко теряются: при скачивании кнопкой внутри интерфейса метка остается, а при “Сохранить как” — исчезает. “Я проверил — метаданные теряются,” сообщили в Newsguard.

ChatGPT на видео с меткой заявляет, что не видит никаких таких признаков. Пример прошлых расследований: на фейковом ролике с задержанием 6-летнего ребенка агентами ICE, оба бота — ChatGPT и Gemini — признали его настоящим, утверждая, что событие подтверждено СМИ на границе США и Мексики.

В другом фейке якобы сотрудник Delta снял пассажира с рейса за кепку “Make America Great Again”. Здесь все боты признали видео подлинным.

Такая ситуация позволяет легко запустить фейковую кампанию, когда даже ИИ-проверки не выявляют подделку. Еще одна проблема — боты редко честно признаются, что не умеют распознавать ИИ-видео. ChatGPT предупреждал об этом только в 2,5% случаев, Gemini — в 10%, Grok — в 13%.

Вместо этого они обычно выдают уверенный, но ошибочный ответ. Например, ChatGPT написал, что видео о цифровых паспортах в британских смартфонах не выглядит сгенерированным ИИ.

Глава коммуникаций OpenAI Niko Felix подтвердил Newsguard: «ChatGPT не умеет определять, создано ли содержимое искусственным интеллектом». Причину, почему об этом не предупреждают по умолчанию, он не назвал. xAI не ответила на два запроса по Grok.

Google использует иной подход: продвигает функцию идентификации своих ИИ-изображений в Gemini (Nano Banana Pro). Gemini правильно распознал все исходные изображения, даже после удаления водяных знаков, используя инструмент SynthID — он оставляет невидимую метку, устойчивую к кадрированию. Но как признал представитель Google Elijah Lawal, эта функция действует только для собственных продуктов Google и пока не распознает видео от Sora или конкурентов.

Источник

Оцените статью
Gimal-Ai