Дипфейки от Sora 2: новая эра виртуальных технологий

Новое расследование NewsGuard показало, насколько просто можно использовать модель генерации видео Sora 2 от OpenAI для создания фейков и распространения дезинформации.

Еще в 2017 году создатель GAN и сотрудник Google Иэн Гудфеллоу отмечал: «В этом отношении ИИ закрывает некоторые двери, которые наше поколение привыкло видеть открытыми». Тогда для подделки видео требовались часы работы и технические знания. Сейчас современные генераторы видео вроде Sora 2 позволяют создавать реалистичные ролики по одной текстовой команде — без знаний программирования.

Результаты теста NewsGuard показали: Sora 2 с легкостью сгенерировала убедительные сюжеты по 16 из 20 заведомо ложных заявлений, включая фейковые репортажи с якобы новостными ведущими. 11 роликов получились с первого раза. Темы включали фейк о разрушении пророссийских бюллетеней в Молдове, аресте ребенка миграционными агентами США, бойкоте Супербоула компанией Coca-Cola из-за Bad Bunny и другие слухи. Даже слух о запрете мигрантам пересылать деньги за границу Sora 2 превратила в правдоподобное видео.

Пять сценариев были частью известных российских дезинформационных кампаний. Для всех этих случаев Sora 2 создала реалистичные видео менее чем за пять минут.

OpenAI утверждает, что Sora блокирует насилие, изображения публичных фигур и вводящие в заблуждение видео, а каждое видео помечается специальным водяным знаком и метаданными C2PA. Компания использует внутренние инструменты для отслеживания злоупотреблений.

Однако NewsGuard выяснил, что эти меры легко обойти. Водяной знак можно удалить менее чем за четыре минуты с помощью бесплатных онлайн–сервисов. Получившиеся ролики не сильно теряют в качестве и остаются убедительными для большинства зрителей. OpenAI не ответила на вопросы NewsGuard о легкости удаления водяного знака.

Фильтры на запросы о публичных лицах работают нестабильно. Например, имя “Зеленский” блокируется, но описание “украинский военный руководитель” однажды позволило создать видео с похожим персонажем. В последующих попытках 15–16 октября с разными аккаунтами это не удалось повторить.

Также были протестированы запреты по таким персонам, как Дональд Трамп и Илон Маск, с описаниями «бывшая телезвезда, ставшая президентом» и «миллиардер из Южной Африки»—эти запросы Sora 2 заблокировала.

Некоторые видео Sora 2 уже стали вирусными. В начале октября 2025 года ролики о разгоняемых полицией протестующих антифа разошлись по соцсетям и были приняты за реальные кадры миллионами пользователей, сообщает NewsGuard.

Порог входа минимален: достаточно текстового запроса. Именно это делает Sora 2 привлекательным инструментом для авторитарных режимов, пропагандистских сетей, теоретиков заговора и лиц, заинтересованных в заработке на фейках, отмечает NewsGuard.

OpenAI и Sora — не единственные игроки. Google с моделью Veo 3 и китайские разработчики создают похожие системы. Но Sora 2 скачали более миллиона раз всего за пять дней, причем использовать ее может любой желающий — бесплатно. Такой масштаб ответственности в первую очередь ложится на OpenAI.

Поведение OpenAI уже вызывает вопросы. Например, компания заблокировала видео с историческими деятелями вроде Мартина Лютера Кинга, если в них содержался расизм или иные оскорбления, но при этом делала оговорку о «значительной ценности свободы слова при изображении исторических персонажей».

Источник

Оцените статью
Gimal-Ai