OpenAI вновь сталкивается с проблемами в Европе из-за своей технологии. Группа Noyb поддерживает жителя Норвегии, который обнаружил, что ChatGPT предоставил вымышленную информацию о его якобы совершенных преступлениях. Это очередное свидетельство того, как генерация ложных данных может привести к серьезным последствиям.
Жалобы на ChatGPT касаются неправильной информации, начиная от даты рождения до биографических данных. Однако здесь камень преткновения в том, что OpenAI не предоставляет способ корректировки в случае ошибок. Хотя предлагается блокировать отклики на такие запросы, но согласно GDPR у европейцев есть право на исправление личных данных.
Суть жалобы заключается в том, что данные должны быть точными, и текущая ситуация вызывает обеспокоенность. «GDPR ясен. Личные данные должны быть точными», — подчеркнул Йоаким Сёдерберг, адвокат по защите данных в Noyb. Несмотря на наличие маленького уведомления о возможных ошибках, это не освобождает от ответственности за вводящие в заблуждение данные.
Выполнение правил GDPR может привести к значительным штрафам, а также изменениям в продуктах ИИ. Ранее в 2023 году вмешательство итальянского регулятора привело к временной блокировке ChatGPT.
Сама OpenAI пока не дала комментариев по этому вопросу. Учитывая, что данные инциденты случаются не впервые, Noyb продолжает обращать внимание на ложную информацию, генерируемую системой.
Примечательно, что после обновления ChatGPT ложная информация перестала генерироваться, но у Noyb остаются сомнения о ее сохранении в модели ИИ. «Добавление уведомления о несоответствии закону не делает закон недействительным», — добавила Клеанти Сардели из Noyb.
Жалоба подана в Норвегии, и организация надеется, что она будет рассмотрена компетентными органами. В то время как жалоба в Австрии все еще находится в процессе рассмотрения, европейские регуляторы ищут подход к этим технологиям.