Экс-глава Google Эрик Шмидт против создания суперумного ИИ по примеру Манхэттенского проекта

Бывший гендиректор Google Эрик Шмидт, CEO Scale AI Александр Ван и директор Центра безопасности ИИ Дэн Хендрикс в недавнем докладе высказались против создания в США сверхразумных ИИ-систем по примеру Манхэттенского проекта. Авторы предупреждают, что такая гонка может вызвать ответные действия со стороны Китая, вплоть до кибератак, что дестабилизирует международные отношения.

«Манхэттенский проект для AGI предполагает, что соперники смирятся с нарушением баланса или угрозой существованию, вместо того чтобы предотвратить это», — пишут в докладе авторы. Это может привести к нарастанию конфликтов, что подрывает стабильность, которую планировалось укрепить.

Доклад выходит спустя несколько месяцев после предложений американских политиков и лидеров индустрии, призывающих к созданию AGI по модели американской атомной программы 40-х годов. Недавно министр энергетики США Крис Райт заявил, что страна находится на пороге нового «Манхэттенского проекта» для ИИ.

По мнению Шмидта и его соавторов, агрессивная борьба за контроль над ИИ может привести к стратегической ситуации, напоминающей ядерное противостояние. Они предлагают концепцию «взаимно гарантированного сбоя ИИ» (Mutual Assured AI Malfunction, MAIM), когда страны смогут заранее блокировать опасные проекты ИИ.

Шмидт и его коллеги предлагают США сместить фокус с гонки к сверхразуму на разработку мер предотвращения создания таких систем в других странах. Авторы подчеркивают, что необходимо расширить арсенал кибератак для нейтрализации опасных ИИ-проектов и ограничить доступ к продвинутым чипам и открытым моделям в ИИ.

Доклад вводит новый подход к разработке AGI, который ставит в приоритет защитные стратегии. Это важно, учитывая, что недавно Шмидт писал о важности агрессивной конкуренции с Китаем в этой области.

Как бы ни хотелось администрации США продвигаться вперед, решения вокруг AGI не происходят в вакууме. Вместо активного наступления, Шмидт и его коллеги предлагают сосредоточиться на защите.

Источник

Оцените статью
Gimal-Ai