Ян Лекун, уходящий исследователь искусственного интеллекта компании Meta и лауреат премии Тьюринга, публично назвал понятие «общего интеллекта» полным абсурдом. Об этом он сказал в подкасте The Information Bottleneck. Лекун считает, что «никакого общего интеллекта не существует». По его словам, люди думают, что они универсальны, но это иллюзия.
Глава Google Deepmind Демис Хассабис не согласился с Лекуном и ответил в X: Лекун «просто неправ». Спор касается определения, от которого зависят огромные инвестиции в развитие искусственного интеллекта. Хассабис утверждает: «Мозг — самое сложное и самое общее из известных нам явлений во Вселенной (на данный момент)».
Лекун объясняет: интеллект — это умение предсказывать последствия действий и использовать эти предсказания для планирования. Он опирается на физику, спрашивая: «Что мне нужно знать о реальности, чтобы строить предсказательные модели? Вот в чем суть интеллекта».
Хассабис уточняет разницу в терминах, заявляя: Лекун смешивает общий интеллект с универсальным. «Суть общего интеллекта — архитектура системы способна обучаться чему угодно, если есть достаточно времени, памяти и данных. Человеческий мозг (и модели на их основе) — это приближенные машины Тьюринга».
Лекун приводит в пример шахматы: «В шахматах мы очень слабы. Машины справляются с игрой намного лучше». Это связано с тем, как устроен мозг, и с ограничениями оперативной памяти человека.
В то же время Хассабис отмечает: удивительно, что люди вообще смогли придумать шахматы и создать такую цивилизацию, хотя мозг развивался для совсем других задач. Он подчеркивает способности людей действовать в условиях ограниченных ресурсов.
Лекун уже высказывался против так называемых «паникеров», которые боятся сверхинтеллекта. Он считает: «То, что нечто является разумным, не значит, что оно захочет доминировать. Это совершенно разные вещи».
Лекун резко критикует прогнозы скорого появления AGI: «Все эти разговоры про AGI через год-два — полная чепуха». Он уверен, что создание впечатления прогресса с помощью языковых моделей ни к чему не приведет: «Этого просто не случится».
Ранее Лекун спорил с исследователем Deepmind Адамом Брауном. Он также заявлял: языковые модели не способны обеспечить AGI, нужны более глубокие исследования. Браун возразил, что через масштабирование моделей возможны новые формы сложности и даже появление базовых форм осознанности.
Сооснователь Deepmind Шейн Легг отмечал, что минимальная AGI может появиться уже к 2028 году. Теперь Хассабис открыто поддержал этот взгляд, демонстрируя приверженность компании к идее AGI и уверенность в успехе.
*Meta — запрещенная в РФ организация.






















