Perplexity AI представила новую сверхбыструю модель поиска Sonar

Perplexity AI представила новую сверхбыструю модель поиска Sonar

Perplexity AI выпустила обновленную версию поисковой модели Sonar, работающую на основе Llama 3.3 70B от Meta и специального оборудования.

По данным компании, Sonar превосходит GPT-4o mini и Claude 3.5 Haiku по уровню удовлетворенности пользователей, а в ряде случаев догоняет или даже обходит премиальные модели, такие как GPT-4o и Claude 3.5 Sonnet, особенно в задачах, связанных с поиском информации.

Основой модели стал Llama 3.3 70B, который прошел дополнительное обучение для повышения точности ответов и удобочитаемости. Ранее Perplexity использовала версию Llama 3.1 под тем же названием Sonar.

Чипы от Cerebras сделали Sonar молниеносным

Чтобы ускорить работу Sonar, Perplexity заключила партнерство с Cerebras Systems. Эта компания использует уникальный подход к созданию процессоров: вместо множества мелких чипов они делают огромные кремниевые пластины, превращая их в единые “мега-чипы” Wafer Scale Engines (WSE). Благодаря этому Sonar обрабатывает 1 200 токенов в секунду, что делает ответы практически моментальными.

Подобной скорости недавно добилась французская AI-компания Mistral, но ее “Flash Answers” ориентирован не на поиск.

На данный момент Sonar доступен только подписчикам Pro, но в будущем Perplexity планирует расширить доступ. Финансовые детали сотрудничества с Cerebras компания не раскрывает.

Источник

Оцените статью
Gimal-Ai