Почему предсказание токенов не приведет к созданию AGI

Ян ЛеКун, главный AI-учёный Meta, на дебатах с исследователем DeepMind Адамом Брауном заявил, что большие языковые модели (LLM) — тупиковый путь к человеческому интеллекту. ЛеКун объясняет, что такие модели делают прогнозы по принципу автодополнения текста, что фундаментально ограничено.

Браун поддерживает текущую архитектуру LLM. Он считает, что простое правило предсказывать следующий “токен” может порождать сложность, как в биологической эволюции. “Модели уже решают задачи олимпиад по математике, которые не присутствовали в обучающей выборке,” — отмечает он. По мнению Брауна, если увеличивать объём данных и вычислений, успехи не закончатся.

ЛеКун не согласен с этим подходом. Он признаёт, что LLM полезны, обладают знанием “выше человеческого” в тексте, но не понимают физическую реальность. Основная критика ЛеКуна — автодополнение работает лишь с ограниченным числом слов, но не подходит для моделирования реальной среды. “Невозможно представить все возможные будущие события как список, поскольку их бесконечно много,” — объясняет ЛеКун.

Перенос метода предсказания текста на пиксельный уровень видео, по словам ЛеКуна, провалился за 20 лет попыток. Реальность слишком “шумная” для такого подхода — именно поэтому ИИ не осваивает физику или причинно-следственные связи.

ЛеКун показывает неэффективность языковых моделей на примере объёма данных — им требуется около 30 триллионов слов, что человеку заняло бы 500 тысяч лет чтения. В то же время четырёхлетний ребёнок видит столько же информации через зрение, сколько LLM “читает” за обучение, но быстро учится базовым вещам (физика, гравитация, постоянство объектов). “Мы до сих пор не видим роботов, которые могли бы просто убрать со стола или загрузить посудомоечную машину,” — отмечает учёный.

ЛеКун считает, что нужен не рост LLM, а новые архитектуры — такие как JEPA. Они должны учиться моделировать состояние мира на абстрактном уровне, а не предсказывать каждый пиксель. Подход схож с тем, как человек работает с мыслями и намерениями, не считая каждое мышечное движение.

Скептицизм ЛеКуна по поводу “масштабной гипотезы” похож на мнение когнитивного учёного Гэри Маркуса. Как и Маркус, ЛеКун считает, что LLM хорошо копируют языковые закономерности, но не понимают причин или логики. Маркус выступает за объединение нейросетей и символических методов (нейросимвольный ИИ).

В конце дебатов с участием философа Дэвида Чалмерса обсуждалась возможность появления машинного сознания. Браун осторожно предположил: при текущем развитии ИИ может приобрести сознание к 2036 году. Он видит сознание как результат обработки информации, а не “биоматерию”.

Браун сравнил современные ИИ с “подопытными организмами для изучения интеллекта”. В отличие от мозга, нейросеть можно “заморозить” и анализировать пошагово. Он надеется, что такой подход поможет раскрыть загадку человеческого сознания.

ЛеКун даёт технические определения базовым понятиям. Эмоции — это “ожидание результата”. Если система строит модель действительности и прогнозирует пользу или вред от действия, то у неё возникает аналог эмоций. ЛеКун уверен, что машины смогут обрести мораль, если человек задаст им цели и ограничения.

Мнения разделились по вопросу безопасности ИИ. Браун опасается “агентного рассогласования”, когда ИИ получит свои цели и начнёт обманывать людей. ЛеКун считает это преувеличением: такие риски появятся только при автономных системах. LLM сейчас не способны к самостоятельному планированию и угрозы не представляют. Для будущих ИИ ЛеКун предлагает фиксировать цели и “ограждения”, которые не позволят действовать вне рамок — по аналогии с социальными инстинктами у людей.

ЛеКун жёстко выступает против монополии в ИИ. По его словам, для демократии жизненно важно разнообразие открытых систем, ведь ИИ будет участвовать во всех цифровых коммуникациях. “Мы не можем позволить, чтобы на Западном побережье США или в Китае возник монополия из нескольких компаний,” — подчеркивает ЛеКун.

Взгляды ЛеКуна на открытость противоречат текущей стратегии Meta, где всё больше делают ставку на закрытые модели и конкуренцию. В ноябре 2025 года он уходит из Meta после 12 лет работы, чтобы развивать собственную компанию и новые подходы (Advanced Machine Intelligence). Однако часть его исследований всё ещё связана с Meta через партнёрство, но компания не контролирует его научную работу.

Источник

*Meta — запрещённая в РФ организация.

Оцените статью
Gimal-Ai