Ян Лекун назвал общий интеллект мифом, глава DeepMind ответил

Ян Лекун, уходящий исследователь искусственного интеллекта компании Meta и лауреат премии Тьюринга, публично назвал понятие «общего интеллекта» полным абсурдом. Об этом он сказал в подкасте The Information Bottleneck. Лекун считает, что «никакого общего интеллекта не существует». По его словам, люди думают, что они универсальны, но это иллюзия.

Глава Google Deepmind Демис Хассабис не согласился с Лекуном и ответил в X: Лекун «просто неправ». Спор касается определения, от которого зависят огромные инвестиции в развитие искусственного интеллекта. Хассабис утверждает: «Мозг — самое сложное и самое общее из известных нам явлений во Вселенной (на данный момент)».

Лекун объясняет: интеллект — это умение предсказывать последствия действий и использовать эти предсказания для планирования. Он опирается на физику, спрашивая: «Что мне нужно знать о реальности, чтобы строить предсказательные модели? Вот в чем суть интеллекта».

Хассабис уточняет разницу в терминах, заявляя: Лекун смешивает общий интеллект с универсальным. «Суть общего интеллекта — архитектура системы способна обучаться чему угодно, если есть достаточно времени, памяти и данных. Человеческий мозг (и модели на их основе) — это приближенные машины Тьюринга».

Лекун приводит в пример шахматы: «В шахматах мы очень слабы. Машины справляются с игрой намного лучше». Это связано с тем, как устроен мозг, и с ограничениями оперативной памяти человека.

В то же время Хассабис отмечает: удивительно, что люди вообще смогли придумать шахматы и создать такую цивилизацию, хотя мозг развивался для совсем других задач. Он подчеркивает способности людей действовать в условиях ограниченных ресурсов.

Лекун уже высказывался против так называемых «паникеров», которые боятся сверхинтеллекта. Он считает: «То, что нечто является разумным, не значит, что оно захочет доминировать. Это совершенно разные вещи».

Лекун резко критикует прогнозы скорого появления AGI: «Все эти разговоры про AGI через год-два — полная чепуха». Он уверен, что создание впечатления прогресса с помощью языковых моделей ни к чему не приведет: «Этого просто не случится».

Ранее Лекун спорил с исследователем Deepmind Адамом Брауном. Он также заявлял: языковые модели не способны обеспечить AGI, нужны более глубокие исследования. Браун возразил, что через масштабирование моделей возможны новые формы сложности и даже появление базовых форм осознанности.

Сооснователь Deepmind Шейн Легг отмечал, что минимальная AGI может появиться уже к 2028 году. Теперь Хассабис открыто поддержал этот взгляд, демонстрируя приверженность компании к идее AGI и уверенность в успехе.

Источник

*Meta — запрещенная в РФ организация.

Оцените статью
Gimal-Ai