Компания Google впервые стала продавать свои чипы TPU (Tensor Processing Unit) сторонним клиентам, бросая прямой вызов доминированию Nvidia. По данным SemiAnalysis, появление последних TPU от Google уже заставило снизить цены на вычисления для ИИ.
Ранее Google использовала TPU почти только во внутренних задачах. С новым TPUv7 “Ironwood” эта политика меняется. Google теперь активно продаёт чипы внешним компаниям и ставит себя в один ряд с Nvidia.
Стартап Anthropic стал ключевым клиентом, заказав около миллиона TPU для прямого использования и аренды через Google Cloud Platform. Обслуживание такой инфраструктуры требует более одного гигаватта электроэнергии.
Эта конкуренция давит на рынок. SemiAnalysis отмечает, что OpenAI настояла на скидке примерно в 30% для своих систем на Nvidia, просто пригрозив перейти на TPU или другие альтернативы.
Аналитики Dylan Patel, Myron Xie и Daniel Nishball пишут: «Чем больше покупаешь (TPU), тем больше экономишь (на капвложениях в NVIDIA GPU)», перефразируя известную цитату главы Nvidia.
Данные показывают: TPU теперь не запасной вариант. Свежие топовые модели искусственного интеллекта — Google Gemini 3 Pro и Anthropic Claude 4.5 Opus — в основном работают на TPU от Google и чипах Amazon Trainium. Gemini 3 обучалась только на TPU.
С точки зрения технических характеристик, TPUv7 “Ironwood” почти догоняет Nvidia Blackwell по теоретической мощности и пропускной способности памяти (по данным SemiAnalysis), а главное — стоит значительно дешевле.
Для Google общая стоимость владения одним чипом примерно на 44% ниже, чем у сравнимой системы Nvidia GB200. Для внешних клиентов — таких, как Anthropic, — экономия может составить 30–50% на единицу вычислительной мощности, по оценке аналитиков.
Это преимущество увеличивается для команд, которые оптимизируют своё ПО. Система Google позволяет связать до 9,216 чипов в единую сеть. Для сравнения, Nvidia обычно объединяет только 64–72 чипа в один кластер.
Главное препятствие для роста TPU — ПО. Nvidia CUDA очень распространена в отрасли. Google сейчас активно работает над поддержкой PyTorch и интеграцией с библиотеками вроде vLLM. Цель — сделать TPU полноценной альтернативой без необходимости полностью переписывать софт.
Однако основной компонент программного стека TPU — компилятор XLA — остается закрытым. В SemiAnalysis считают, что открытие XLA ускорило бы распространение TPU.
Для массового внедрения TPU Google применяет новые финансовые схемы. Компания сотрудничает с альтернативными облачными провайдерами, например Fluidstack, и криптомайнинговыми центрами вроде TeraWulf, чтобы быcтро переоборудовать их для работы с ИИ. В таких сделках Google гарантирует платежи арендаторам, если оператор провалится.
Конкуренция обещает стать жёстче. Nvidia готовит чипы следующего поколения “Vera Rubin” с технологиями HBM4 и рекордной пропускной способностью. Ожидается запуск в 2026 или 2027 году.
Google отвечает двумя вариантами TPUv8: один разрабатывается с Broadcom (“Sunfish”), другой с MediaTek (“Zebrafish”). Оба проекта не используют самые передовые технологии и сдвигаются по срокам.
Если Nvidia реализует обещанный прирост производительности, нынешняя ценовая фора TPU пропадёт. В SemiAnalysis предупреждают: системы “Rubin”, особенно “Kyber Rack”, могут оказаться более выгодными даже для внутренних задач Google.
В аналитическом отчете отмечено: «Карты раскрыты Google, теперь Nvidia нужно успешно реализовать свои планы, чтобы остаться лидером». Если Nvidia не ошибётся с производительностью или сроками Rubin, её позиции останутся сильными. Но любая ошибка — и её доминирование в опасности.






















