ИИ грозит вырождением человеческого творчества

Новое исследование Университета Вашингтона, Университета Карнеги-Меллон и Института искусственного интеллекта Аллена показывает, что разные языковые модели ИИ выдают удивительно похожие ответы на творческие задания с открытым финалом.

Команда под руководством Ливэя Цзяна называет это явление “Artificial Hivemind” (искусственный коллективный разум). Результаты проявляются на двух уровнях: одна и та же модель часто повторяет себя (внутренняя повторяемость), а разные модели от разных компаний генерируют почти одинаковые ответы (межмодельная схожесть).

Например, на задание “придумай метафору о времени” 25 различных языковых моделей дали 50 ответов каждая. Хотя модели были разного размера и разработаны разными компаниями, почти все ответы свелись к двум основным вариантам: “время — это река” или “время — ткач”. Формулировки менялись, но суть оставалась одинаковой.

Для анализа этого эффекта использовалась база реальных пользовательских запросов Infinity-Chat. В большинстве случаев, почти 80% ответов одной и той же модели были едва различимы, отмечают исследователи. Кроме того, встречались дословные совпадения между совершенно разными моделями.

Когда DeepSeek-V3 и GPT-4o писали описание чехлов для iPhone, они использовали одинаковые фразы: “Elevate your iPhone with our”, “sleek, without compromising” и “with bold, eye-catching”. Похожесть между этими двумя моделями — 81%, хотя их разрабатывали разные компании на разных континентах. DeepSeek-V3 и Qwen qwen-max-2025-01-25 показали 82% совпадения.

Причины такой схожести пока не ясны. Исследователи предполагают, что сходство связано с общими источниками данных, попаданием в обучающие выборки искусственного текста или одинаковыми настройками алгоритмов. Но прямых доказательств пока нет.

Авторы статьи опасаются последствий этого эффекта. Они предупреждают, что массовое использование однотипных ответов может привести к стандартизации мышления у людей. Люди все чаще используют ИИ для учебы, творчества и принятия решений. Это, по мнению исследователей, уже меняет стиль письма и креативность пользователей. Если языковые модели распространены по всему миру, культурные особенности могут теряться. “Главенство западных метафор, вроде “время — это река”, вытесняет альтернативные точки зрения,” говорится в исследовании. В 2024 году исследователь Эндрю Дж. Петерсон также предупреждал об угрозе «коллапса знаний» из-за роста использования ИИ.

Выводы ученых поднимают вопросы о генерации синтетических данных. Даже если использовать сразу несколько разных моделей для увеличения разнообразия, результаты могут оставаться однообразными, если все модели изначально похожи.

Источник

Оцените статью
Gimal-Ai