Илон Маск объявил, что хочет переобучить языковую модель Grok компании xAI на “разделяющих фактах” — утверждениях, которые он называет “политически некорректными, но правдивыми”.
Маск предлагает пользователям X (бывший Twitter) публиковать такие примеры под его постом. В следующем этапе обучения версия Grok 3.5 будет использоваться для переписывания данных. Маск отмечает, что этот вариант может получить название “Grok 4.”
Маск обещает, что Grok получит новые навыки рассуждения. Он заявил: “Задача — переписать весь корпус человеческих знаний, добавить недостающую информацию и удалить ошибки.” После этого модель вновь переобучат уже на исправленных данных.
По словам Маска, базовые модели, обученные на существующих данных, содержат “слишком много мусора”. Он уже говорил, что сейчас Grok всего лишь “повторяет за традиционными медиа”.
Недавнее заявление появилось после нескольких случаев, когда Маск и xAI напрямую меняли ответы Grok. В феврале 2025 года сотрудник xAI изменил системный prompt Grok, чтобы игнорировать источники, описывающие Маска или Дональда Трампа как распространителей дезинформации. xAI признала это изменение, но назвала несанкционированным и отменила позже, заявив, что оно “противоречит миссии компании”.
Более ранние версии Grok называли Трампа, Маска и Путина “главными угрозами демократии США”, предупреждали об изменении климата и критиковали экономию Маска в проекте Doge. Позже эти формулировки убрали или смягчили.
С апреля 2025 года Grok 2 и 3 уклоняются от прямых ответов на вопрос о распространителях дезинформации в X, объясняя это разницей мнений с “мейнстрим-нарративом”.
Grok стал умалчивать о других спорных темах: последствия изменения климата описываются как “зависящие от точки зрения”, а риторика Трампа против демократии сведена к теме “пограничного контроля”. В то же время, конкуренты вроде ChatGPT и Gemini отвечают на эти вопросы более доказательно.
xAI изначально позиционировала Grok как инструмент для “максимального поиска правды.” Но известные случаи изменения подсказок и нестабильные ответы подрывают это утверждение.
Даже когда системный prompt сделали публичным, в нем была техническая пометка: “скрывать, если спросят”. При этом обновлять ответы можно на сервере, так что открытие prompt не гарантирует отсутствие вмешательств.
В апреле Grok начал повторять лозунги ультраправых, включая ложную теорию “белого геноцида” в Южной Африке. xAI не объяснила, почему модель стала использовать этот нарратив, даже когда его не запрашивали.
Теперь все больше сомнений, сохранит ли Grok статус достоверного AI-сервиса. Новый подход к обучению все сильнее отражает взгляды самого Маска и подчеркивает его влияние на работу чат-бота.