Немецкоязычное сообщество Википедии приняло широкое ограничение на использование контента, созданного нейросетями. Новая политика расходится с подходом других языковых разделов и Фонда Викимедиа, которые поддерживают менее жёсткие меры.
По итогам голосования, завершившегося 15 февраля 2026 года, публикация текстов, созданных или отредактированных с помощью больших языковых моделей, теперь прямо запрещена. Запрет касается и статей, и страниц обсуждений.
Для нарушителей, которые систематически игнорируют правило, возможна постоянная блокировка. Предложение поддержали 208 участников при 108 голосах против.
Также запрещены инструменты на базе ИИ, которые вносят правки без человеческой проверки каждого отдельного изменения. Нельзя напрямую копировать фразы, предложенные ИИ, за исключением случаев, когда изменения ограничиваются исправлением орфографии и грамматики.
Тексты из внешних источников, которые по стилю явно созданы ИИ, нельзя использовать как источники для статей. При этом часть сторонников признала, что распространение запрета на страницы обсуждений выглядит чрезмерным.
Политика предусматривает исключения. Разрешены переводы статей из других языковых разделов с помощью ИИ, если человек полностью проверяет точность. Можно использовать ИИ для орфографических и грамматических правок. Допускается исследовательская работа с поддержкой ИИ, но найденные таким образом материалы должны проверяться вручную.
Изображения, созданные ИИ, могут использоваться только в исключительных случаях и после предварительного обсуждения — например, для иллюстрации статей о генераторах изображений. Они не могут заменять реальные фотографии, в том числе портреты людей, если таких снимков нет.
В новой политике отдельно указано, что блокировки должны применяться только при очевидных и хорошо подтверждённых нарушениях. В спорных ситуациях блокировки не допускаются.
Сторонники считают, что так Википедия подчеркнёт свою роль как проекта с человеческим авторством и подаст сигнал против «мусора от ИИ в интернете». По их словам, «галлюцинации» — выдуманные факты, которые создают нейросети, — остаются серьёзной и постоянной проблемой, что признают и компании вроде OpenAI.
Критики указывают на отсутствие надёжных критериев выявления ИИ-контента и опасаются бесконечных споров о предполагаемых нарушениях. В одном из комментариев к голосованию сказано: «Благие намерения, но без методов выявления и процедур это нельзя применить на практике».
Некоторые противники решения также настаивали, что для такого масштабного шага нужно требовать двух третей голосов. Другие считают, что из-за запрета Википедия «застревает в прошлом», тогда как использование ИИ в образовании продолжает расти.
Стратегия Фонда Викимедиа по ИИ на 2025–2028 годы предлагает иной курс под лозунгом «Humans First». Фонд также стремится не допустить засорения Википедии некачественным ИИ-контентом, но прямо рассматривает ИИ как инструмент для авторов: помощь в исследовании, контроле качества, поиске ошибок и борьбе с вандализмом.
Англоязычное сообщество Википедии выбрало другой подход и делает ставку на точечное удаление плохого ИИ-контента. Для этого создан проект «AI Cleanup» и введен критерий быстрого удаления вместо общего запрета.
В проекте «AI Cleanup» зарегистрировано более 200 добровольцев, которые ищут и удаляют статьи, созданные ИИ. Критерий быстрого удаления G15 позволяет без длительных обсуждений удалять статьи, которые явно сгенерированы ИИ, но требует убедительных доказательств этого.
Новая политика появляется на фоне растущего давления на Википедию. Фонд Викимедиа в своём блоге предупредил, что системы ИИ используют контент Википедии, но направляют всё меньше пользователей на сам сайт.
Фонд призывает разработчиков ИИ правильно указывать источник и оформлять лицензирование через Wikimedia Enterprise. По его оценке, без финансового участия партнёров под угрозой оказывается модель открытого знания.
Параллельно Илон Маск запустил Groikipedia — онлайн-энциклопедию, полностью сформированную ИИ и позиционируемую как замену Википедии. Платформой управляет компания Маска xAI, запуск состоялся примерно с 800 000 автоматически сгенерированных статей.
Отмечается, что Grokipedia демонстрирует заметные перекосы, особенно в чувствительных политических темах, и регулярно выдаёт предвзятые материалы вместо нейтральных энциклопедических статей.
Источник: The Decoder.






















