Alibaba выпустила AI-модель QwQ-32B: конкуренция с гигантами при меньших ресурсах

Новая модель AI от Alibaba, QwQ-32B, с 32 миллиардами параметров показывает удивительную производительность, сравнимую с гораздо более крупными моделями, такими как DeepSeek-R1, который имеет 671 миллиард параметров.

Несмотря на свои размеры, QwQ-32B впечатляет в испытаниях по математике, программированию и общезадачным умениям, потребляя значительно меньше ресурсов. Это делает её привлекательным решением для пользователей с ограниченными аппаратными средствами.

Исследователи из Alibaba утверждают, что таких успехов удалось добиться благодаря эффективному использованию обучения с подкреплением, дополняющему базовую модель, заранее обученную на обширных данных.

Обучение было реализовано в двух этапах. Сначала внимание было уделено задачам по математике и программированию, а на втором этапе — общим возможностям, таким как следование инструкциям и взаимодействие с окружающей средой, что позволило модели гибко адаптироваться и развивать критическое мышление.

Модель QwQ-32B выпущена как open-weight под лицензией Apache 2.0 и доступна на платформах Hugging Face и ModelScope. Пользователи могут воспользоваться моделью через Hugging Face Transformers, API Alibaba Cloud DashScope или протестировать её напрямую через Qwen Chat.

Alibaba продолжает развивать свои AI-решения в рамках более широкой стратегии, включая специализацию моделей Qwen2.5 для различных задач и контекстов. Компания также инвестирует 50 миллиардов евро в развитие AI и облачной инфраструктуры, чтобы поддержать усилия Китая по уменьшению зависимости от американских компаний.

Источник

Оцените статью
Gimal-Ai