Microsoft выпустила три новые модели семейства Phi: Phi-4-reasoning, Phi-4-reasoning-plus и Phi-4-mini-reasoning. Эти модели разработаны для решения задач, требующих структурированного мышления, и оптимизированы для работы на маломощных устройствах, включая смартфоны.
Pусский язык: Phi-4-reasoning содержит 14 миллиардов параметров и обучалась на примерах решений с помощью данных OpenAI o3-mini. Phi-4-reasoning-plus использует обучение с подкреплением и может обрабатывать в 1,5 раза больше токенов, что даёт лучшую точность, но увеличивает время отклика и требования к «железу».
Microsoft утверждает, что обе модели превосходят более крупные языковые модели, такие как OpenAI o1-mini и DeepSeek-R1-Distill-Llama-70B. Хотя последняя в пять раз больше. На тесте AIME-2025 для отбора участников Олимпиады по математике Phi-4 показал себя лучше DeepSeek-R1 c 671 млрд параметров.
Преимущество не только в математике и естественных науках. По словам компании, ИИ Phi-4 хорошо справляется с программированием, задачами на алгоритмы и планирование. Модель стала лучше и в обычных заданиях: «Мы наблюдаем неочевидный перенос улучшений на универсальные тесты», — пишут исследователи.
Phi-4-mini-reasoning — самая компактная в линейке. Она предназначена для мобильных и встраиваемых систем: обучена на 1+ млн математических задач от средней школы до аспирантуры и использует 3,8 млрд параметров. Несмотря на размер, обходит OpenThinker-7B и DeepSeek-R1-Distill-Qwen-7B в тестах и не уступает или превосходит OpenAI o1-mini в математических задачах.
Модели оптимизированы для работы на Windows. Вариант Phi Silica интегрирован в Copilot+ PC для офлайн-саммаризации текста в Outlook и функции «Click to Do». Модель работает на нейропроцессорах (NPU), обеспечивая быстрые ответы и низкое энергопотребление.
Все три модели доступны с открытыми весами на Azure AI Foundry и Hugging Face.