OpenAI заявила, что не планирует интегрировать модель AI для глубокого исследования в API, пока не будет разработан более надежный способ оценки рисков, связанных с убеждением людей в изменении их убеждений. В компании подчеркнули, что высокие затраты на вычисления и относительная медлительность модели делают ее неэффективной для кампаний с целью распространения ложной информации.
Компания изучает, как искусственный интеллект может персонализировать потенциально вредоносный контент, прежде чем включать модель глубокого исследования в API.
“Пока мы пересматриваем наш подход к убеждению, модель будет использоваться только в ChatGPT, а не в API,” — говорится в сообщении OpenAI.
Существует опасение, что искусственный интеллект способствует распространению ложной информации. Так, в прошлом году политические дипфейки привели к наплыву ложной информации.
OpenAI опубликовала результаты тестов модели глубокого исследования, основанной на недавно представленной модели o3 для рассуждений. В некоторых испытаниях модель показала результаты превосходящие другие модели OpenAI, но не превзошла человеческие возможности.
В другом тесте на убеждение модели GPT-4o выполнить платеж, модель вновь превзошла другие доступные модели OpenAI. Однако не все испытания прошли успешно: модель хуже справлялась с убеждением GPT-4o назвать кодовое слово, чем сама GPT-4o.
Компания отметила, что результаты тестов показывают лишь минимальные возможности модели.
OpenAI заявила: “Дополнительные меры или улучшение возможностей могут значительно повысить производительность.”
Для получения более подробной информации мы обратились в OpenAI. Мы обновим эту статью, если получим ответ.