Илья Суцкевер, сооснователь Safe Superintelligence Inc. (SSI) и бывший главный ученый OpenAI, считает, что развитие искусственного интеллекта стоит на новом этапе. Вместо увеличения размеров моделей требуется фундаментальное исследование. Модели должны учиться эффективнее, как люди. Он отмечает: сегодня «нельзя свободно говорить о таких вещах».
В интервью Dwarkesh Patel Суцкевер объяснил, что 2020-2025 годы были эпохой масштабирования, когда прогресс достигался за счет большего количества данных и вычислений. Теперь индустрия снова переходит к научным исследованиям. «Scaling sucked out all the air in the room», — говорит Суцкевер. Универсальная стратегия — больше данных и вычислений — перестает приводить к скачкам качества. Данные для предобучения ограничены, а простое наращивание ресурсов уже не работает.
По мнению Суцкеверa, сейчас необходимы новые идеи и подходы, а не только увеличение размера моделей. Он отмечает важную проблему: модели работают неравномерно, могут блестяще решать сложные задания, но проваливаться на базовых. Пример — «vibe coding»: модель видит ошибку, исправляет и создает новую, а потом снова возвращает старую.
Суцкевер предполагает, что обучение с подкреплением делает модели слишком узконаправленными. В отличие от предобучения на всех доступных данных, при RL приходится выбирать, что использовать. Это приводит к «reward hacking» — оптимизации под конкретные тесты, что мешает обобщать знания.
Для перехода к следующему уровню ИИ требуется обучение по-человечески. Например, подросток учится водить за 10 часов — ИИ нужно намного больше данных.
Суцкевер считает, что чувства играют важную роль для людей. Они как «функция ценности», заложенная эволюцией. «Maybe it suggests that the value function of humans is modulated by emotions in some important way that’s hardcoded by evolution», — отмечает он.
Суцкевер также подвергает сомнению само понятие AGI (универсальный ИИ). Предобучение дало ложное ожидание, что ИИ может все сразу. По его словам, «человек не AGI», у людей нет огромного багаж знаний, все происходит через непрерывное обучение.
Свою версию суперинтеллекта Суцкевер сравнивает с очень способным учеником, а не всезнающей базой данных. «I produce a superintelligent 15-year-old that’s very eager to go», — заявляет он. Такой ИИ сначала мало что знает, но может учиться чему угодно. Компетентность появляется только после практики в реальном мире через пробу и ошибки.
Отвечая на вопрос, как изменить обучение ИИ для большей эффективности, Суцкевер говорить отказывается: «Unfortunately, we live in a world where not all machine learning ideas are discussed freely, and this is one of them.» Он отмечает: существование людей доказывает возможность такого подхода, хотя есть вероятность, что нейроны человека выполняют больше вычислений, чем предполагается.
Суцкевер убежден, что существует специальный принцип машинного обучения, но «обстоятельства мешают обсуждать детали».
Новая компания SSI осознанно идет другим путем. У компании на руках $3 млрд инвестиций, но не планируется быстрый запуск продуктов. Суцкевер подчеркивает: у SSI меньше вычислительных ресурсов, чем у IT-гигантов, но они свободны для чистых исследований, а не на обслуживание коммерции.
План — напрямую двигаться к суперинтеллекту. Нет цели поспевать за конкурентами с постоянными релизами. Исследования ведутся в закрытом режиме до появления безопасной и зрелой системы. Возможно, для демонстрации возможностей и вовлечения регуляторов потребуется постепенный запуск.
К вопросу безопасности Суцкевер предлагает новую цель: ИИ должен заботиться о «чувствующих существах». Суперинтеллект, сам обладая чувствами, может проявлять эмпатию, а не следовать абстрактным человеческим ценностям.
Суцкевер прогнозирует, что по мере роста мощности ИИ главные компании начнут сотрудничать для безопасности, а не конкурировать. Уже сейчас между OpenAI и Anthropic появляются первые контакты по этому поводу.






















