Стратегия Nvidia: сделка с Groq ускорит цепочки поставок

Nvidia покупает технологию чипов и ключевых инженеров Groq примерно за $20 млрд. Такая сделка помогает снизить зависимость от дорогой памяти, усилить позиции на рынке инференса и использовать рост ИИ-агентов, сообщает CNBC.

Стоимость сделки почти втрое превышает оценку Groq ($6,9 млрд в сентябре 2024). Подробности не раскрываются, но Bank of America называет инициативу “удивительной, стратегической, дорогой и одновременно атакующей и оборонительной”. Nvidia понимает, что переход ИИ-разработок от обучения к инференсу требует новых типов чипов.

Nvidia определяет “фабрику ИИ” как инфраструктуру для всех этапов работы: сбор данных, обучение, инференс. Не каждое ИИ-приложение требует одних и тех же процессоров. Внутренняя рассылка компании говорит о планах интегрировать чипы Groq с низкой задержкой для обработки только тех задач, где это важно.

Графические процессоры Nvidia с HBM-памятью будут использоваться для обучения и крупных задач, а архитектура Groq на основе SRAM подойдет для приложений, где задержка критична: голосовые агенты, автопилоты и др. Это позволяет Nvidia не покупать дорогую HBM-память для всех задач.

По данным TrendForce, Samsung и SK hynix почти на 20% повышают цены на поставки HBM3e в 2026 году. Samsung в ноябре 2025 года увеличил цены на некоторые чипы памяти на 60% по сравнению с сентябрем. А цена на DDR5 выросла на 307% с сентября 2025 года. SK hynix уже распродал весь свой объем на 2026 год.

В годовом отчете Nvidia за 2025 год признает: “Чтобы обеспечить поставки и емкости, мы выплачивали премии, делали депозиты и заключали долгосрочные договоры, что увеличивало наши расходы на продукцию и может продолжиться”. Глава Nvidia Jensen Huang подтвердил рост цен, но подчеркнул, что компания гарантировала себе крупные объемы закупок (Reuters).

SRAM — это очень быстрая память прямо на чипе. Groq использует ее как основную память весов модели, а не только как кеш. Это снижает зависимость от внешней памяти HBM, но ограничивает размер модели на одном чипе. Для больших моделей нагрузка распределяется на несколько чипов.

Архитектура Groq выгодна для инференса с низкой задержкой. Инвестор Гэвин Бейкер пояснил: инференс делится на фазы prefill и decode, и в фазе decode скорость памяти важнее объема. Преимущество по пропускной способности может составлять 6–10%, что, при тратах на железо $300 млрд в год, дает ощутимый экономический эффект.

В современных MoE-моделях, вроде Deepseek V3, одновременно работают только часть “экспертов” и отдельные плотные слои. По словам аналитика Zephyr, их разумно хранить в SRAM, а редко активируемые компоненты в HBM.

Groq строит чипы по принципу orchestra: все части чипа работают синхронно, выполняя одну команду с разными данными. Компилятор заранее планирует все вычисления. В блоге Groq отмечают: такой “статический” подход гарантирует стабильную реакцию на каждый запрос независимо от нагрузки. Для агентов и решений в реальном времени это важнее, чем максимальная производительность.

Сотрудники Groq, включая основателя и бывшего разработчика TPU Google Джонатана Росса, переходят в Nvidia. Главная сила этой команды в опыте построения полного комплекса: “железа”, ПО и компилятора одновременно.

Nvidia по-прежнему лидирует в обучении моделей, но давление на сегменте инференса растет со стороны AMD, Groq, Cerebras. Если бы Groq расширялся самостоятельно, это могло бы стать угрозой для Nvidia в части кластеров инференса, нуждающихся в малой задержке. Также, по мнению аналитиков, Google был бы заинтересован в покупке Groq для усиления TPU-направления.

Дил подтверждает курс Nvidia на универсальные чипы для разных задач: для prefill, обучения, инференса и задержки decode. В августе 2025 года исследователи Nvidia опубликовали статью, где доказывали, что малые языковые модели (до 10 млрд параметров) обрабатывают 40-70% типичных задач агентов и обходятся в 10-30 раз дешевле больших.

Groq же идеально подходит для работы небольших моделей с частыми, короткими запросами, где нужна минимальная задержка и нет смысла запускать огромные языковые модели.

Источник

Оцените статью
Gimal-Ai