General Agentic Memory превосходит RAG в тестах памяти

Исследователи из Китая и Гонконга разработали новую архитектуру памяти для ИИ-агентов, которая снижает потерю информации при длительных взаимодействиях.

Память — одно из главных слабых мест современных ИИ. При долгих разговорах или сложных задачах модели часто теряют детали или выходят за пределы контекстного окна. Это называют «context rot».

В новой работе представлен метод General Agentic Memory (GAM). Система совмещает сжатие данных с глубокой проработкой запросов, используя принцип «just-in-time compilation» — оптимизацию информации только при необходимости.

Авторы отмечают, что старые подходы основываются на заранее созданных кратких записях, что ведет к потере важных деталей. «Информация, кажущаяся неважной при сохранении, позже может оказаться критичной, но к тому моменту она уже исчезла», — пишут исследователи.

GAM использует два модуля: Memorizer и Researcher. Memorizer работает постоянно, создает простые резюме и при этом сохраняет полный ход взаимодействия в базе данных (page store) по страницам и тегам. Researcher включается по запросу — он не просто ищет в памяти, а проводит глубокий анализ: разбирает запрос, планирует поиск, выбирает подходящие инструменты. Агент перебирает три способа: векторный поиск по темам, поиск точных ключевых слов (BM25), или прямой доступ по ID. Поиск итеративный: после каждого шага агент определяет, достаточно ли найдено информации, и может повторять попытки перед формированием ответа.

GAM сравнили с популярными решениями, включая Retrieval-Augmented Generation (RAG) и большие модели типа GPT-4o-mini и Qwen2.5-14B. По данным статьи, GAM показала лучшие результаты по всем тестам. Лучшая точность отмечена в задачах, где нужно связывать информацию на длинном промежутке времени: на бенчмарке RULER точность GAM превысила 90%, тогда как традиционные RAG и другие методы с этим не справились.

Авторы связывают успех GAM с повторяющимся глубоким поиском, который помогает находить детали, пропущенные при обычном сжатии. Масштабируемость тоже высокая: чем больше шагов делает Researcher, тем выше качество ответа.

Код и данные проекта доступны на GitHub.

Другие лаборатории тоже ищут решения проблемы памяти. Anthropic сосредоточилась на «context engineering» — они собирают весь контекст в компактных заметках, а не делают акцент только на настройке подсказок.

Deepseek представила новую OCR-систему, которая превращает текстовые документы в сжатые изображения. Такой способ может помочь чат-ботам компактно хранить старые сообщения как картинки.

Исследователи из Шанхая разрабатывают Semantic Operating System — нечто вроде постоянной памяти для ИИ, которая будет работать как человеческий мозг: «забывать» и переучивать знания для формирования устойчивых воспоминаний.

Источник

Оцените статью
Gimal-Ai