Ai2 выпустила модель Olmo 2 1B с одним миллиардом параметров. По заявлениям организации, модель опережает по ряду тестов подобные решения от Google, Meta и Alibaba.
Olmo 2 1B распространяется по лицензии Apache 2.0 на платформе Hugging Face. В отличие от большинства аналогов, её можно полностью воспроизвести — Ai2 открыла код и датасеты (Olmo-mix-1124, Dolmino-mix-1124), использованные для обучения.
Модель не требует мощного железа, подходит разработчикам и энтузиастам с обычными ПК или ноутбуками. Olmo 2 1B легко запускается даже на телефоне. За последние дни появилось сразу несколько компактных моделей, включая Microsoft Phi 4 и Qwen 2.5 Omni 3B, которые также работают на обычных устройствах.
Модель обучали на 4 триллионах токенов, включающих публичные, сгенерированные ИИ и ручные данные. В тесте GSM8K по арифметике Olmo 2 1B показала лучший результат, чем Google Gemma 3 1B, Meta Llama 3.2 1B и Alibaba Qwen 2.5 1.5B. Также Olmo 2 1B сильнее конкурентов по фактической точности в тесте TruthfulQA.
Ai2 предупреждает, что модель может иногда выдавать опасные, чувствительные или неточные ответы. Поэтому организация не рекомендует использовать Olmo 2 1B в коммерции.