28 ноября 2025 года Илья Сутскевер на платформе X уточнил свои предыдущие высказывания о «конце масштабирования». Он написал, что существующие методы масштабирования искусственного интеллекта продолжают обеспечивать прогресс, и стагнации не ожидается. В то же время, Сутскевер отметил, что «чего-то важного» все равно не хватает.
В интервью Dwarkesh Patel Илья Сутскевер, сооснователь Safe Superintelligence Inc. (SSI) и бывший главный научный сотрудник OpenAI, заявил, что развитие искусственного интеллекта находится на переломном этапе. По его словам, за период с 2020 по 2025 годы индустрия двигалась за счет роста вычислительных ресурсов и объема данных — это был «век масштабирования». Теперь наступил момент, когда снова требуется фундаментальная научная работа.
«Масштабирование вытеснило все остальное», — говорит Сутскевер. Рецепт — увеличивать данные и вычисления — работал так хорошо, что все компании делали одно и то же. Однако данные для предобучения ограничены, и необязательно, что вложение больше ресурсов приведет к качественным скачкам.
Сутскевер считает, что индустрия возвращается к ситуации до 2020 года: нужны новые идеи и подходы, а не просто более крупные модели.
Он отмечает, что нынешние модели часто ведут себя непоследовательно: отлично справляются со сложными задачами, но могут проваливаться на простых. Пример — «vibe coding»: модель исправляет баг, но тут же делает новую ошибку и возвращается к прежней проблеме в следующий раз.
Сутскевер считает, что обучение с подкреплением (RL) делает модели слишком зацикленными на отдельных задачах. При RL нельзя использовать все данные подряд, приходится их отбирать. Из-за этого исследователи, сами того не желая, оптимизируют модели лишь под определенные тесты, и в реальной практике такие модели работают хуже.
Чтобы достичь нового уровня, ИИ должен обучаться обобщать так же эффективно, как люди. К примеру, подросток учится водить машину за 10 часов, ИИ нужно гораздо больше данных для такого же результата.
Сутскевер предполагает, что эмоции в мозге человека выступают встроенной системой оценки: «Возможно, функция ценности человека задается эмоциями, которые закреплены эволюцией», — поясняет он. Это помогает людям учиться заранее, до получения внешнего результата.
Сутскевер считает, что термин общего искусственного интеллекта (AGI) не совсем корректен. «Человек — не AGI», — утверждает он. Нам не свойственны бескрайние знания, мы учимся всю жизнь.
Свою версию суперинтеллекта Сутскевер описывает как «одаренного школьника, готового учиться и работать». Такой ИИ изначально знает мало, но способен быстро осваивать любые профессии. Реальные возможности появляются только после развертывания — нужна «фаза проб и ошибок» в реальном мире, а не готовый продукт на выходе из обучающего кластера.
Отвечая на вопрос о том, как изменить подход к обучению машин для достижения эффективности человеческого обучения, Сутскевер не раскрывает подробностей. «К сожалению, сейчас не все идеи по машинному обучению обсуждаются открыто — и это одна из таких идей», — объясняет он.
Пример существования людей служит для него доказательством: раз человек может учиться так эффективно, должна существовать и машинная версия такого принципа. Однако Сутскевер указывает, что есть препятствие — возможно, нейроны человека проводят вычислений больше, чем нам кажется. Если это важно, создать аналогичный принцип для ИИ может быть трудно.
Несмотря на это, он уверен: существует некий принцип машинного обучения, который позволит добиться нужных результатов, но обстоятельства не позволяют рассказать о нем детально.
В компании SSI Сутскевер делает ставку на чисто научный подход и подчеркивает отличие от других игроков рынка. У SSI меньше вычислительных мощностей, чем у крупных компаний, но команда может использовать их эффективнее, не тратя ресурсы на запуск коммерческих продуктов.
План SSI — «прямая дорога» к суперинтеллекту без гонки за быстрой монетизацией. Впрочем, Сутскевер признает, что возможно потребуется показывать промежуточные результаты ради регулирования.
Говоря о безопасности ИИ, Сутскевер выдвигает новый критерий: будущий ИИ должен быть настроен на заботу о всех живых и чувствующих существах. Если ИИ сам будет обладать чувствами, это должно естественнее обеспечить эмпатию, чем попытки программировать строго человеческие ценности.
Сутскевер прогнозирует: когда ИИ станет заметно мощнее, AI-лаборатории начнут сотрудничать по вопросам безопасности, а не конкурировать. Первые шаги к этому — сотрудничество OpenAI и Anthropic.






















