На этапе рецензирования материалов для следующей конференции ICLR обнаружились серьёзные проблемы в работе научного сообщества. Пользователи Reddit и платформы OpenReview активно обсуждают, что генеративный ИИ разрушает доверие к научным работам с обеих сторон — авторы выдумывают источники, а рецензенты позволяют системам ИИ писать отзывы за них.
Один из примеров — статья BrainMIND от исследователей Georgia Institute of Technology и Tsinghua University. В публикации должно было быть описание “читаемой карты” активности головного мозга, но рецензенты нашли в списке литературы вымышленных авторов и названия работ, например, среди соавторов оказалась “Jane Doe”. Рецензент отметил, что явно работал языковой ИИ и поставил «Strong Reject». Авторы попытались переписать работу, но появились новые ошибки, поэтому они полностью её отозвали.
В другом случае работа Efficient Fine‑Tuning of Quantized Models via Adaptive Rank and Bitwidth была снята самими авторами после четырёх отказов. Они напрямую обвинили рецензентов в использовании ИИ для написания отзывов и в том, что их материалы даже не прочитали. «Такое поведение — явное попрание священных обязанностей рецензента», — написали исследователи в заявлении об отзыве, добавив, что лень рецензентов спровоцирована именно массовым применением ИИ.
В сообществе мало кто осуждает само использование искусственного интеллекта. Претензии вызывают только безответственные подходы — например, автоматическое написание рецензий. При этом грамотное применение языковых моделей для обучения или редактирования текстов, особенно для тех, кто плохо владеет английским, воспринимается нормально.
Такие ситуации связаны не только с отдельными статьями. В работе Xinqu Zhang и Peng Wang для Research Ethics объясняется, что государственные программы, например китайская политика «Double First-Class», создают давление на учёных. В результате такие механизмы, как cengceng jiama, усиливают бюрократическое давление. Вузы устанавливают жёсткие требования к публикациям — иногда работу без публикации в SCI-журналах увольняют. Исследователи пишут: «Junior scientists admitted they had ‘no choice’ but to falsify data or hire ghostwriters to keep their positions in a publish-or-perish environment.» В 2023 году издательство Hindawi отозвало более 9600 статей, 8200 из которых написали учёные из Китая.
Наиболее тревожно то, как вузы реагируют на эти нарушения. Руководство может терпимо относиться к мошенничеству, если это не портит внешний имидж вуза. Как сказал один из деканов, ссылаясь на китайскую пословицу: «Where the water is too clean, there are no fish.» Перевод: если слишком строго наказывать за проступки, работа остановится. Обычно стараются «превращать большие проблемы в маленькие, а маленькие — игнорировать», если только не возникнет крупный публичный скандал.






















