Глава Nvidia заявил, что ИИ больше не галлюцинирует

Генеральный директор Nvidia Дженсен Хуанг в интервью CNBC заявил, что современные системы искусственного интеллекта якобы перестали допускать ошибки и «больше не галлюцинируют». Это высказывание прозвучало на фоне падения котировок крупнейших клиентов Nvidia — Meta, Amazon и Google — после объявлений о новых вложениях в инфраструктуру ИИ сверх уже крупных бюджетов.

В беседе Хуанг вновь озвучил распространённый в отрасли тезис: рост вычислительных мощностей прямо ведёт к ускорению роста выручки. По его словам, если у компаний будет вдвое больше ресурсов, то доходы вырастут в четыре раза. Nvidia как поставщик чипов напрямую выигрывает от такой логики и дальнейшего наращивания спроса на вычисления для ИИ.

Хуанг подчеркнул, что спрос на вычислительные ресурсы для ИИ реален, модели становятся лучше, выручка крупных поставщиков ИИ растёт, а продвижение агентных систем впечатляет. В качестве примера он заявил, что Anthropic и OpenAI «отлично зарабатывают», не упоминая при этом масштаб затрат на такие проекты.

При этом глава Nvidia назвал текущую волну развития ИИ «крупнейшим строительством инфраструктуры в истории человечества», фактически ставя её выше электрификации, строительства железных дорог, автомагистралей и глобальной инфраструктуры ископаемого топлива.

Самым спорным моментом стало утверждение Хуанга, что «ИИ стал суперполезным, больше не галлюцинирует». То есть, по его словам, языковые модели больше не генерируют ложную информацию. Это не соответствует текущему состоянию технологий: ошибки и выдуманные факты всё ещё остаются существенной проблемой генеративных моделей.

Даже если предположить, что Хуанг имел в виду значительное снижение частоты ошибок, такая разница в формулировках крайне важна. Галлюцинации — не простой дефект, который можно устранить патчем. Они являются следствием вероятностной архитектуры языковых моделей. Именно из-за этого компании осторожно внедряют ИИ: им мешают нестабильные ответы, необходимость человеческой проверки и нерешённые вопросы безопасности.

Ошибочность заявления Хуанга имеет серьёзное значение. Если бы проблема галлюцинаций и связанных с ними сбоев действительно была решена, потребность в «человеке в контуре» резко снизилась бы. Можно было бы полностью автоматизировать юридические консультации, выпускать AI-код напрямую в продакшен, ставить диагнозы без врача, а системы ИИ могли бы обучать сами себя без накопления ошибок. Это привело бы к кардинально иной ситуации в использовании ИИ.

Даже наличие точной самооценки уверенности модели в своём ответе стало бы переломным моментом для практического применения. Но и этого пока нет. Надёжность и предсказуемость работы генеративного ИИ остаются главным нерешённым вопросом.

Даже OpenAI признаёт, что полностью убрать галлюцинации, вероятнее всего, не удастся. Реакция пользователей на это и возможные последствия — отдельная тема. На фоне таких признаний многие новые стартапы ищут альтернативные архитектуры ИИ, поскольку сомневаются, что текущие модели обеспечат принципиальный скачок в устойчивости.

Авторы материала отмечают, что тот факт, что руководитель крупнейшего производителя чипов для ИИ может в прямом эфире CNBC заявить, будто ИИ больше не ошибается, и не встретить возражений, показывает, насколько далеко текущая волна ожиданий от ИИ ушла от реальности.

Источник: The Decoder

*Meta – запрещенная в РФ организация.

Оцените статью
Gimal-Ai