Google Gemini — основа новой XR экосистемы Google

Google расширяет XR-экосистему и делает языковую модель Gemini центральным интерфейсом. Компания представила функции генеративного ИИ для гарнитур и объявила о партнёрствах для выпуска очков, выполняющих роль носителей многомодального ассистента.

Во время “Android Show: XR Edition” Google обозначила стратегию платформы Android XR. Представлены новые устройства, но главный акцент — глубокая интеграция ИИ. По словам Google, Gemini выступает «клеем», который объединяет экосистему и обеспечивает управление разными устройствами в зависимости от контекста.

ИИ-функции уже становятся доступны для гарнитуры Samsung Galaxy XR. Ключевое новшество — бета-функция “Likeness”: она создаёт цифровой аватар пользователя, копирующий мимику и жесты в реальном времени. Для этого используются алгоритмы компьютерного зрения, фиксирующие движения человека. Google поясняет, что функция предназначена для повышения естественности в видеозвонках.

Выпуск ещё одной функции намечен на следующий год: «автоматическая пространственная визуализация» для всего устройства. Это позволит обычный 2D-контент — например, видео на YouTube или игры — преобразовывать в стереоскопический 3D с помощью ИИ на самом устройстве.

Самое масштабное внедрение ИИ Google готовит для умных очков. В партнёрстве с Samsung, Gentle Monster и Warby Parker компания разрабатывает “AI-очки”, которые будут конкурировать с продуктами Meta*. Google делит такие устройства на аудиоверсии и версии с дисплеем. Во всех предусмотрены камеры и микрофоны для доступа Gemini к окружающей обстановке.

В демонстрации Google показала, как очки могут в реальном времени распознавать предметы, переводить текст, а также проактивно выдавать информацию — например, по прибытии на вокзал показывать расписание ближайших поездов.

Для развития приложений Google выпустила Developer Preview 3 для Android XR SDK. Интеграция Gemini Live API для очков открывает разработчикам доступ к визуальным и аудиоданным, позволяя запускать действия, зависящие от ситуации. Например, ИИ-очки с Uber умеют определять местоположение пользователя в аэропорту, указывать дорогу к точке посадки, распознавать номер машины и показывать статус поездки.

Кроме того, Google представила «Project Aura» от XREAL — проводную XR-гарнитуру для использования в качестве внешнего монитора и AR-интерфейса. В неё также встроена поддержка Gemini, который анализирует контент на экране и помогает через оверлеи.

Источник

Оцените статью
Gimal-Ai