26 февраля 2025 года компания OpenAI выпустила версию Advanced Voice, работающую на GPT-4o mini, для всех бесплатных пользователей ChatGPT. Эта функция обеспечивает качество общения, сходное с полной версией GPT-4o, оставаясь при этом более экономичной.
Пользователи Plus имеют доступ к той же технологии голосового общения с GPT-4o, но с пятью разами большими ежедневными лимитами по сравнению с бесплатными пользователями, а также с дополнительными возможностями видео и совместного использования экрана. Пользователи Pro продолжают иметь неограниченный доступ к голосовым функциям и более высоким лимитам по видео и совместному использованию экрана.
Кроме того, OpenAI расширила функцию Deep Research для всех пользователей ChatGPT Plus, Team, Education и Enterprise, улучшив её с момента первого релиза. Теперь функция встраивает изображения с информацией об источнике в свои отчёты и лучше понимает и интерпретирует загруженные файлы.
Функция Deep Research, изначально выпущенная для пользователей Pro в начале февраля, осуществляет поиск по множеству онлайн-источников и создаёт детализированные отчёты на их основе, хотя всё ещё присутствуют ошибки, характерные для языковых моделей.
Система достигла точности в 0.86 при тестировании с помощью PersonQA, что существенно лучше, чем у GPT-4o (0.50), o1 (0.55) и o3-mini (0.22). Уровень ошибок снизился до 0.13, что лучше, чем у других моделей. Согласно OpenAI, этот показатель может преувеличивать фактические ошибки, так как некоторые ответы основаны на устаревших тестах. Компания отмечает, что обширные исследования помогают снижать количество ошибок, а процедуры после обучения стимулируют правдивость и снижение неверных утверждений.
Тем не менее, 13 процентов ошибок ещё остаются, что может означать наличия неточностей в более длинных отчётах. Deep Research лучше всего подходит для общих, хорошо документированных тем с проверенными источниками. Это также актуально при использовании экспертов, способных быстро подтвердить правильность информации.