Исследователи представили метод под названием «Chain of Draft» (CoD), который помогает моделям ИИ решать сложные задачи с использованием значительно меньшего количества слов и при этом сохранять точность на уровне существующих подходов.
Метод CoD упрощает генерацию промежуточных результатов, позволяя сократить количество слов на 92.4% по сравнению с методом Chain of Thought (CoT), сохраняя точность. Вдохновение для CoD пришло из наблюдений за человеческим поведением: люди часто записывают только основные моменты в краткой форме.
В экспериментах исследователи изменили инструкцию для CoT, ограничив каждый шаг пятью словами. На примерах арифметических, понимательных и символьных задач, CoD показал аналогичную точность, но при этом использовал на 68-86% меньше слов.
На примере задач по пониманию дат метод CoD повысил точность до 88.1% для GPT-4o и до 89.7% для Claude 3.5 Sonnet. CoD уменьшает количество токенов вывода и также снижает количество входных токенов в сценариях обучения на нескольких примерах.
Тем не менее, не все задачи подходят для кратких подсказок. Некоторые требуют более продолжительного анализа или обращения к внешним источникам знаний. Исследователи предлагают сочетать CoD с альтернативными подходами, такими как параллельное рассуждение или многоуровневая проверка. Эти открытия могут использоваться для улучшения обучения будущих моделей ИИ.
Методика CoD была разработана командой Zoom Communications, которая с 2023 года предлагает «AI Companion» для помощи на встречах. Вариант CoD может быть особенно полезен для работы в реальном времени, например, в видеозвонках.