Исследователи призывают к глобальному закрытию ИИ

Элиезер Юдковский считает, что единственный способ добиться успеха в вопросе управления ИИ — это международный договор о полном отключении таких систем. В интервью The New York Times он заявил: “Если будет действующий международный договор о закрытии ИИ, и моя книга как-то этому помогла, я назову книгу успешной. Всё остальное — лишь неутешительный приз по пути к смерти”.

По его мнению, нет компромиссных вариантов. Всё, кроме полного запрета — от тестирования систем до изучения их устройства — не имеет смысла. Он уверен, что обсуждение “регулирования рисков” или “безопасных лабораторий” уводит внимание от единственно возможного решения — глобального и обязательного отключения. Юдковский сказал: “Среди безумных учёных, которые ведут мир к катастрофе, каждого надо остановить. Руководство OpenAI хуже конкурентов, отдельные сотрудники Anthropic — лучше среды, но это не меняет сути: всех надо приравнять законом”.

Юдковский — сооснователь института Machine Intelligence Research Institute (MIRI), который исследует риски продвинутого ИИ с начала 2000-х. Он также известен как один из лидеров сообщества рационалистов, где его статьи и сайт LessWrong формировали обсуждения разума, теории решений и рисков для человечества.

Он стал известен благодаря ранним предупреждениям о неуправляемом сверхинтеллекте. Его предложения — от остановки обучения ИИ до применения военных мер против нелегальных центров обработки данных — сделали Юдковского самой спорной фигурой в текущих дебатах об ИИ.

Жёсткая позиция Юдковского строится на одном допущении: любой искусственный сверхинтеллект, созданный нынешними способами, уничтожит человечество. В своей книге If Anyone Builds It, Everyone Dies он пишет: “Если где-либо на планете кто-либо создаст искусственный сверхинтеллект с помощью хоть сколько-нибудь похожих на нынешние техники, все люди на Земле погибнут”. По его словам, это так же неизбежно, как действие законов физики: “Это всё равно что спросить у физика — изменили ли новые открытия его отношение к падению камней со скалы?”

Юдковский уверен, что даже успехи в понимании работы ИИ, попытки сделать его безопаснее или этика компаний не спасут. После достижения определённого уровня способностей у системы не поможет никакая “добрая воля” или безопасность.

Юдковский также отвергает подход к регулированию, основанный на прогнозах, сроках или вероятности прорыва. Он говорит: “Что за одержимость сроками?” По его мнению, ждать регулирования, потому что угроза возникнет через 10, 20 или 50 лет — это безответственно. Если риск есть, действовать нужно сразу.

Юдковский считает, что лучшее корпоративное поведение снижает опасность лишь незначительно. Если ИИ станет достаточно сильным, никакая частичная регуляция не спасёт от катастрофы. Для него именно это — показатель серьёзности. Те, кто говорит о риске, но не поддерживает полный запрет, противоречат себе.

Источник

Оцените статью
Gimal-Ai