OpenAI усилила защиту в генераторе видео Sora 2 после того, как в роликах появилась внешность и голос актёра Брайана Крэнстона без его согласия, что нарушило официальную политику компании по согласованию использования данных.
«Я был глубоко обеспокоен не только за себя, но и за всех артистов, чьи образы и работы могут быть использованы подобным образом», — заявил Крэнстон. Он сообщил о нарушении профсоюзу SAG-AFTRA.
В OpenAI описали проблему как «непреднамеренную генерацию» и уточнили, что после обсуждения с SAG-AFTRA и Крэнстоном были «усилены ограничения по копированию голоса и внешности» для Sora 2. При этом политика согласия осталась прежней — артисты сами решают, как использовать их цифровой образ.
Компания OpenAI также пообещала оперативно реагировать на жалобы. Крэнстон поддержал изменения, но напомнил, что контроль над голосом и внешностью — основное право каждого артиста.
Новые меры стали частью совместного заявления, подписанного SAG-AFTRA, OpenAI, Брайаном Крэнстоном, агентствами United Talent Agency, Creative Artists Agency и Ассоциацией талант-агентов (ATA). Поддерживается также законопроект NO FAKES Act, который на федеральном уровне запретит создание цифровых копий голоса или внешности без разрешения.
С 2023 года Крэнстон открыто критикует роли ИИ в Голливуде и требует уважения прав актёров, предостерегая против замены людей ИИ.
С момента запуска в октябре Sora 2 регулярно критикуют за создание незаконных копий знаменитостей и защищённого контента, включая целые эпизоды «Южного Парка».
Компания фокусировалась на резонансном запуске, а ограничения по защите персональных данных ввела только после общественного давления. Такой же подход был у OpenAI с новой моделью изображений в ChatGPT (пример — случай Ghibli). Генеральный директор Сэм Альтман пообещал, что правообладатели будут получать долю дохода, но детали пока не раскрываются.
По недавнему расследованию NewsGuard, Sora 2 способна создавать фейковые видео за считанные минуты с минимальными усилиями. Это сильно отличается от осторожности OpenAI в прошлом, когда они не выпускали даже слабую языковую модель GPT-2 из-за риска появления фейковых новостей, а теперь компания предлагает генератор видео, который, по оценке NewsGuard, может использоваться для распространения дезинформации.






















