Mistral AI представила новое семейство открытых мультиязычных и мультимодальных моделей — Mistral 3. В линейке есть компактные модели для локального использования и крупная Mixture-of-Experts модель.
В серию входят три модели “Ministral” с 3, 8 и 14 миллиардами параметров, а также флагман — “Mistral Large 3”. Флагман построен по архитектуре Mixture-of-Experts и обучался примерно на 3 000 видеокарт Nvidia H200. В модели задействованы 41 миллиард активных параметров и всего 675 миллиардов параметров.
“Mistral Large 3” полностью открыт и распространяется по лицензии Apache-2.0. Компания заявляет, что модель может конкурировать с ведущими открытыми ИИ по языковым задачам и распознаванию изображений. На площадке LMArena модель занимает второе место среди открытых моделей без рассуждения и шестое среди reasoning-моделей. В тестах производительность сопоставима с Qwen и Deepseek, однако Deepseek уже выпустила V3.2, которая показала заметный рост по сравнению с прошлой версией.
Меньшие версии “Ministral 3” предназначены для локального и edge-использования. Все три размера — 3B, 8B и 14B — доступны в базовой версии, а также в разновидностях “Instruct” и “Reasoning” с возможностью понимания изображений. Они тоже выходят под лицензией Apache-2.0.
По словам компании, обученные на инструкциях модели работают наравне с аналогами, но генерируют гораздо меньше токенов. Варианты Reasoning рассчитаны на более глубокий анализ данных. Компания сообщает, что модель на 14B достигла 85% на тесте AIME-25.
Все модели можно использовать через Mistral AI Studio, Hugging Face, а также на облачных платформах — Amazon Bedrock, Azure Foundry, IBM WatsonX и Together AI. Готовится поддержка Nvidia NIM и AWS SageMaker. Mistral AI отмечает, что разрабатывала новые модели при тесном сотрудничестве с Nvidia.






















