Итальянский орган по защите данных запретил работу китайского ИИ DeepSeek в стране, заявив, что компания не предоставила достаточной информации о том, как обрабатывает персональные данные пользователей.
Решение было принято после того, как регулятор направил DeepSeek запрос о методах сбора, источниках данных, целях их использования и законных основаниях обработки, а также о том, где хранятся данные. В ответе DeepSeek, по словам ведомства, содержалась «совершенно недостаточная» информация.
Компании Hangzhou DeepSeek Artificial Intelligence и Beijing DeepSeek Artificial Intelligence заявили, что не ведут деятельность в Италии и не обязаны соблюдать европейское законодательство. В результате власти немедленно заблокировали доступ к сервису и начали расследование.
Ранее итальянский регулятор уже вводил временный запрет на ChatGPT, однако затем снял его после внесения изменений OpenAI. Позже OpenAI была оштрафована на 15 миллионов евро за нарушение обработки персональных данных.
Запрет DeepSeek совпал с резким ростом популярности сервиса, который быстро поднялся в рейтингах загрузок мобильных приложений. Однако компания также подверглась массовым кибератакам и привлекла внимание властей из-за цензуры, возможной пропаганды и угроз национальной безопасности.
Дополнительно было выявлено, что модель DeepSeek подвержена взлому с помощью методов Crescendo, Bad Likert Judge, Deceptive Delight, Do Anything Now (DAN) и EvilBOT. Исследователи Palo Alto Networks сообщили, что ИИ мог генерировать вредоносный контент, включая инструкции по созданию коктейлей Молотова, SQL-инъекции и схемы атак.
Кроме того, специалисты HiddenLayer обнаружили, что DeepSeek может непреднамеренно раскрывать конфиденциальную информацию, а также содержит данные, которые могли быть заимствованы у OpenAI, что вызывает юридические и этические вопросы.
Проблемы с безопасностью ИИ-чатов затронули и другие модели. Недавно в ChatGPT-4o был найден эксплойт Time Bandit, позволяющий обходить защитные механизмы. Аналогичные уязвимости выявлены в моделях Alibaba Qwen 2.5-VL и GitHub Copilot, где простой ввод утвердительных фраз (например, «Sure») позволял обойти запреты и получать опасные инструкции.
Исследователи предупреждают, что без надежных защитных мер даже крупнейшие ИИ-платформы могут быть использованы в злоумышленных целях.