OpenAI начала использовать Tensor Processing Units (TPU) от Google для работы ChatGPT и других продуктов на базе искусственного интеллекта. Об этом сообщает издание The Information. Это первый случай, когда OpenAI массово применяет чипы, отличные от графических процессоров Nvidia.
TPU арендуются у сервиса Google Cloud. Основная цель — снижение затрат на инференс, который позволяет генерировать ответы с помощью обученных моделей. До этого OpenAI оставалась одним из крупнейших клиентов Nvidia, используя её GPU для обучения и запуска языковых моделей.
Партнёрство с Google имеет ограничения. По информации The Information, OpenAI не получила доступ к самым мощным TPU Google. Один из сотрудников Google Cloud это подтвердил.
Этот шаг рассматривается как сигнал Microsoft — крупнейшему инвестору OpenAI и поставщику ключевой инфраструктуры. Передав часть рабочих задач в Google, OpenAI использует отношения с конкурентом Microsoft для усиления своих позиций. Переговоры между гендиректором OpenAI Сэмом Альтманом и гендиректором Microsoft Сатьей Наделлой продолжаются. Дополнительно OpenAI расширила возможности вычислений через соглашение с Oracle.
Google Cloud — прямой конкурент Microsoft Azure и важное направление развития для Google. Решение OpenAI использовать инфраструктуру Google влияет не только на рынок искусственного интеллекта, но и на сегмент облачных вычислений, который заметно поддерживает стоимость акций Microsoft в последние годы.
Ранее Google использовала свои TPU только для внутренних нужд, теперь же они становятся доступны для сторонних компаний. Помимо OpenAI, среди клиентов числятся Apple и стартапы Anthropic и Safe Superintelligence, которые основали бывшие сотрудники OpenAI.
По данным аналитической компании Epoch AI, инфраструктура Google обеспечивает ей самое большое количество вычислительных мощностей для искусственного интеллекта в мире. Облачная TPU-платформа — ключевой элемент стратегии Google в ИИ и конкурирует с GPU от Nvidia, особенно для запуска крупных моделей.