Закон ЕС об ИИ усложнит жизнь разработчикам AI

Евросоюз продвигает AI Act как глобальный стандарт регулирования искусственного интеллекта с акцентом на защиту прав человека. Такой подход отличается от американской политики, где ставят на сокращение регулирования и ослабление контроля.

В новом “Кодексе практики для ИИ общего назначения” подробно расписаны правила исполнения закона. Кодекс формально добровольный, но имеет большую юридическую силу для разработчиков ИИ. Им надо соответствовать статьям 53 и 55 AI Act. Все компании должны обеспечивать прозрачность и соблюдать авторские права. Если модель относится к системно-опасным, выдвигаются дополнительные требования по безопасности. Компании, которые не участвуют в кодексе, например Meta, должны строить собственную схему исполнения закона.

Сам кодекс подтверждает опасения критиков AI Act и выглядит как пример чрезмерного регулирования. Он перекладывает на разработчиков много бюрократических обязанностей и способен замедлить развитие AI-сектора Европы.

Кодекс состоит из трех частей. В части о прозрачности лежит “Форма документации модели”, которую должен заполнять каждый поставщик. Это дополнительная нагрузка для разработчиков. Большинство данных из этой формы, например точное число параметров, время обучения и объем вычислений, видят только европейские регуляторы.

Часть о авторских правах ориентирована на защиту обладателей контента и не определяет четких правил для технологий. Одним из ключевых вопросов остается способ “отказа” владельцев от использования их данных для обучения ИИ — этот механизм до сих пор обсуждается в судах. В кодексе упомянут как robots.txt, так и неопределенные “современные и широко используемые технические меры”. Что именно это означает, пока не ясно, и судебные разбирательства, вероятно, будут продолжаться еще долго.

Разработчики сталкиваются с почти невыполнимым требованием: исключить возможность того, что ИИ воспроизведет фрагменты обучающей выборки, если это нарушает чьи-то права. По словам эксперта, это практически невозможно без заметного ухудшения качества работы модели, а само требование не отражено напрямую в тексте AI Act.

Самые строгие пункты касаются безопасности и системного риска, ими должны руководствоваться поставщики сложнейших моделей (OpenAI, Google, X, Anthropic, Meta и др.). Кого именно коснутся новые нормы, до конца непонятно.

В разделе “Безопасность” все расписано на 40 страницах: сложные процедуры, постоянное обновление документации для каждой стадии разработки. Для мелких компаний реальные издержки могут оказаться слишком высокими. По мнению Йорга Хайдриха, разработка ИИ может встать из-за необходимости соблюдать все формальности.

Еще одно дополнительное требование — внешний аудит ИИ-моделей. Это создает дополнительную нагрузку и отсрочки запуска решений, а специалистов для таких проверок физически не хватает. Важно, что сам AI Act такой обязательной проверки не предусматривает.

Эксперт заключает: «В попытке сделать ИИ безопасным и заслуживающим доверия ЕС создал систему, грозящую задушить инновации.» Европа оказалась между желанием контроля и конкуренцией на глобальном рынке.

Йорг Хайдрих — юрисконсульт Heise Medien и управляющий партнер ki-kanzlei.de.

Источник

*Meta — запрещенная в РФ организация.

Оцените статью
Gimal-Ai