Google DeepMind представила документ, посвящённый безопасности ИИ уровня AGI. Согласно авторам, такой ИИ может выполнять любые задачи, доступные человеку. В документе говорится, что AGI может появиться к 2030 году и нести серьёзные риски для человечества, включая «экзистенциальные угрозы».
Авторы считают, что AGI будет иметь способности на уровне 99% взрослых людей в области различных задач, включая метакогнитивные задачи. В работе проводится сравнение методов DeepMind с подходами таких компаний как Anthropic и OpenAI в вопросе снижения рисков от AGI.
DeepMind выражает сомнения в возможности создания суперинтеллекта в ближайшее время, но считает возможным появление технологий, которые позволят ИИ проводить собственные исследования для создания более сложных систем. Это может быть крайне опасно.
Документ предлагает улучшить методы блокировки доступа к гипотетическому AGI, усилить понимание действий ИИ и защитить среды, где работают ИИ. Эти методы требуют дальнейших исследований, но пренебрежение ими может привести к серьёзным последствиям.
Не все эксперты согласны с выводами. Хейди Хлааф из AI Now Institute считает, что концепция AGI плохо очерчена для научной оценки. Мэтью Гуздиал из Университета Альберты не верит в реальность саморазвивающегося ИИ. Сандра Вахтер из Оксфорда отмечает опасность ИИ, обучающегося на своих собственных ошибках.
Всё это вызывает сомнения в реалистичности AGI и актуальности проблем безопасности в данной области.