Майлс Брандиж, бывший руководитель исследовательской политики OpenAI за последние семь лет, выступил за проведение внешних аудитов ведущих AI моделей через свой новый институт AVERI. Он считает, что индустрии пора прекратить самостоятельно проверять свои результаты.
Брандиж основал некоммерческий институт AI Verification and Evaluation Research Institute (AVERI), который выступает за независимые проверки безопасности самых современных AI моделей. Он покинул OpenAI в октябре 2024 года, где был советником по подготовке компании к появлению сильного искусственного интеллекта.
Одна из вещей, которые я понял, работая в OpenAI, — это то, что компании формируют стандарты этого направления сами по себе. Никто не заставляет их сотрудничать с независимыми экспертами и обеспечивать безопасность. Они фактически пишут свои собственные правила
, — рассказал Брандиж изданию Fortune.
AI-компании проводят внутренние тесты и публикуют технические отчеты, иногда с внешними экспертами, однако сейчас потребителям и государствам остается только верить их заявлениям на слово.
AVERI уже привлек $7,5 млн инвестиций и хочет довести сумму до $13 млн, чтобы нанять 14 сотрудников. Среди спонсоров — бывший президент Y Combinator Джефф Ралстон, компания AI Underwriting Company, а также сотрудники ведущих AI-компаний. Это люди, которые знают все слабые места и хотят большей прозрачности
, — считает Брандиж.
Одновременно с запуском института Брандиж и более 30 экспертов опубликовали научную работу с предложением поэтапных независимых аудитов. В ней вводятся уровни гарантии AI: уровень 1 примерно соответствует текущей практике с ограниченными внешними проверками, а уровень 4 предполагает полную, «договорную» прозрачность для международных соглашений.
Даже без давления со стороны государства независимые проверки могут стать стандартом, отмечает Брандиж. Крупные компании могут потребовать аудита AI как условие для покупки таких решений, чтобы защититься от скрытых рисков.
Брандиж считает, что страховые компании сыграют ключевую роль. Страховщики могут сделать внешние проверки обязательными для поддержки компаний, основанных на AI, или требовать аудиты от таких игроков, как OpenAI, Anthropic или Google. Страхование развивается быстро
, — добавил Брандиж.






















