OpenAI не спешит интегрировать модель глубокого исследования в API

OpenAI заявила, что не планирует интегрировать модель AI для глубокого исследования в API, пока не будет разработан более надежный способ оценки рисков, связанных с убеждением людей в изменении их убеждений. В компании подчеркнули, что высокие затраты на вычисления и относительная медлительность модели делают ее неэффективной для кампаний с целью распространения ложной информации.

Компания изучает, как искусственный интеллект может персонализировать потенциально вредоносный контент, прежде чем включать модель глубокого исследования в API.

“Пока мы пересматриваем наш подход к убеждению, модель будет использоваться только в ChatGPT, а не в API,” — говорится в сообщении OpenAI.

Существует опасение, что искусственный интеллект способствует распространению ложной информации. Так, в прошлом году политические дипфейки привели к наплыву ложной информации.

OpenAI опубликовала результаты тестов модели глубокого исследования, основанной на недавно представленной модели o3 для рассуждений. В некоторых испытаниях модель показала результаты превосходящие другие модели OpenAI, но не превзошла человеческие возможности.

В другом тесте на убеждение модели GPT-4o выполнить платеж, модель вновь превзошла другие доступные модели OpenAI. Однако не все испытания прошли успешно: модель хуже справлялась с убеждением GPT-4o назвать кодовое слово, чем сама GPT-4o.

Компания отметила, что результаты тестов показывают лишь минимальные возможности модели.

OpenAI заявила: “Дополнительные меры или улучшение возможностей могут значительно повысить производительность.”

Для получения более подробной информации мы обратились в OpenAI. Мы обновим эту статью, если получим ответ.

Источник

Оцените статью
Gimal-Ai