Perplexity AI выпустила обновленную версию поисковой модели Sonar, работающую на основе Llama 3.3 70B от Meta и специального оборудования.
По данным компании, Sonar превосходит GPT-4o mini и Claude 3.5 Haiku по уровню удовлетворенности пользователей, а в ряде случаев догоняет или даже обходит премиальные модели, такие как GPT-4o и Claude 3.5 Sonnet, особенно в задачах, связанных с поиском информации.
Основой модели стал Llama 3.3 70B, который прошел дополнительное обучение для повышения точности ответов и удобочитаемости. Ранее Perplexity использовала версию Llama 3.1 под тем же названием Sonar.
Чипы от Cerebras сделали Sonar молниеносным
Чтобы ускорить работу Sonar, Perplexity заключила партнерство с Cerebras Systems. Эта компания использует уникальный подход к созданию процессоров: вместо множества мелких чипов они делают огромные кремниевые пластины, превращая их в единые “мега-чипы” Wafer Scale Engines (WSE). Благодаря этому Sonar обрабатывает 1 200 токенов в секунду, что делает ответы практически моментальными.
Подобной скорости недавно добилась французская AI-компания Mistral, но ее “Flash Answers” ориентирован не на поиск.
На данный момент Sonar доступен только подписчикам Pro, но в будущем Perplexity планирует расширить доступ. Финансовые детали сотрудничества с Cerebras компания не раскрывает.