Э

Мир энциклопедий

encyclopedia.ru

Редакторы английской Википедии утвердили политику быстрого удаления непроверенного ИИ-контента

  • 7 августа 2025
  • просмотров 406
  • комментариев 7

Искусственный и естественный интеллект

Искусственный и естественный интеллект. Изображение: CyberHoot
Редакторы английской Википедии (англ. Wikipedia) [1]1 дополнили критерии быстрого удаления статей (англ. speedy deletion) [2]2 — в данном случае для порождений искусственного интеллекта (ИИ), пишут 404 Media [3]3 и другие ресурсы.

Наборы критериев пополнились группой G15 «Сгенерированные БЯМом4 страницы без проверки человеком» (англ. LLM-generated pages without human review).

Статьи Свободной энциклопедии нередко удаляются целиком, однако сопутствующее обсуждение как правило занимает неделю. Для разрешения распространённых проблем существует процедура так называемого быстрого удаления, когда пользователь может пометить статью к удалению, а администратор [4]5 — проверить, соответствует ли она определённым критериям, а затем — удалить её без какого-либо обсуждения.

Пункт G15 прежде всего касается текста, написанного ИИ по запросу пользователя. Формулировки вроде «Вот ваша статья по теме...», «по состоянию на последнюю дату обучения модели...» или «как большая языковая модель...» демонстрируют, что материал даже не был вычитан инициатором запроса перед публикацией в Википедии. Ранее таким же образом идентифицировались сгенерированные ИИ посты в социальных сетях и статьи на тему науки.

Второй признак — ссылки на недоступные/формально несуществующие источники («мёртвые» внешние ссылки, невалидные ISBN и DOI). Отмечается, что людям свойственно делать опечатки, поэтому перед принятием решения об удалении следует использовать дополнительные методы проверки.

Третий — ссылки на посторонние/неверно указанные источники: ошибки во временно́й привязке (например, источник из 2020 года цитируется в связи с событием 2022 года); формально валидный DOI, который относится к публикации по принципиально другой теме (например, научная статья о виде жуков, которая цитируется в справке по информатике); некорректно указанный автор или название публикации.

Редакционная политика была обновлена в том числе при участии Ильяса Леблу (фр. Ilyas Lebleu), сооснователя группы английской Википедии AI Cleanup [5]6 — для совместной борьбы с недостоверными материалами-результатами применения ИИ.Если пользователь не проверил эти базовые вещи, мы можем с уверенностью предположить, что он не просматривал ничего из того, что скопировал, и что это примерно так же полезно, как белый шум.
Из заявления участников группы AI Cleanup

Примечания

  1. Большая языковая модель (БЯМ; англ. large language model, LLM) — языковая модель на основе нейронной сети со множеством параметров, которая проанализировала большой объём неразмеченного текста с обучением без учителя (без вмешательства экспериментатора).

Литература

  1. Английская Википедия. — Текст: электронный// Википедия — свободная энциклопедия. — URL: https://ru.wikipedia.org/wiki/Английская_Википедия (дата обращения: 07.08.2025).
  2. Wikipedia:Speedy deletion. — Текст: электронный// Wikipedia, the free encyclopedia. — URL: https://en.wikipedia.org/wiki/Wikipedia:Speedy_deletion (дата обращения: 07.08.2025).
  3. Maiberg E. Wikipedia editors adopt ‘Speedy deletion’ policy for AI slop articles/ Emanuel Maiberg. — Текст: электронный// 404 Media. — 2025. — 5 августа. — URL: https://www.404media.co/wikipedia-editors-adopt-speedy-deletion-policy-for-ai-slop-articles/ (дата обращения: 07.08.2025).
  4. Википедия:Администраторы. — Текст: электронный// Википедия — свободная энциклопедия. — URL: https://ru.wikipedia.org/wiki/Википедия:Администраторы (дата обращения: 07.08.2025).
  5. Wikipedia:WikiProject AI Cleanup. — Текст: электронный// Wikipedia, the free encyclopedia. — URL: https://en.wikipedia.org/wiki/Wikipedia:WikiProject_AI_Cleanup (дата обращения: 07.08.2025).

Упомянутые персоны, псевдонимы и персонажи


  • Теги
  • AI
  • AI Cleanup
  • en.wikipedia.org
  • LLM
  • speedy deletion
  • Wikipedia
  • Wikipedia rules
  • БЯМ
  • Википедия
  • ИИ
  • английская Википедия
  • английский язык
  • быстрое удаление
  • правила Википедии

(Голосов: 2, Рейтинг: 3.44)

Комментарии

Предупреждение Для добавления комментариев требуется авторизация
  • Ссылка на комментарий
    Быстрые лайфхаки по верификации: DOI проверяется прямо в адресной строке по https://www.doi.org/...; ISBN — через WorldCat/ISBNdb; научные статьи — через Crossref/OpenAlex; журналы — в DOAJ. На всё — минуты, а степень «галлюцинаций» сразу становится видна.
    • 1/0
  • Ссылка на комментарий
    Роман Изосимов написал:
    На всё — минуты
    При наличии VPN — конечно. С улыбкой
    • 0/0
  • Ссылка на комментарий
    На мой взгляд, это все мелочи. Человек тоже может натягивать сову на глобус и ошибаться, и поэтому каждый материал должен проходить проверку временем. Стоит ли удалять текст, если он написан роботом и из ошибок в нем только неправильные ссылки? Неужели никто в такой огромной компании до сих пор не додумался создать песочницы для модераторов? Нет модераторов — заинтересуйте, много материалов — сделайте пометки «сомнительно», где это требуется. В Википедии столько уже «фарша» от разного рода экспертов, что пора бы уже во всех материалах «отделить» друг от друга верные и ошибочные абзацы, а ссылки даже в старых статьях регулярно проверять с помощью робота. Бороться надо не только с мошенниками, которые массово выгружают свои статейки, но и с «проверенными» авторами.
    • 0/0
  • Ссылка на комментарий
    Татьяна Шокурова написала:
    На мой взгляд, это все мелочи. Человек тоже может натягивать сову на глобус и ошибаться, и поэтому каждый материал должен проходить проверку временем. Стоит ли удалять текст, если он написан роботом и из ошибок в нем только неправильные ссылки? Неужели никто в такой огромной компании до сих пор не додумался создать песочницы для модераторов? Нет модераторов — заинтересуйте, много материалов — сделайте пометки «сомнительно», где это требуется. В Википедии столько уже «фарша» от разного рода экспертов, что пора бы уже во всех материалах «отделить» друг от друга верные и ошибочные абзацы, а ссылки даже в старых статьях регулярно проверять с помощью робота. Бороться надо не только с мошенниками, которые массово выгружают свои статейки, но и с «проверенными» авторами.
    Такая борьба тоже идёт. Эта сетевая энциклопедия славится в том числе и тем, что в некоторых статьях периодически происходят так называемые «войны правок», когда один «эксперт» вносит правки, а затем другой «эксперт» с противоположными взглядами всё это правит или даже удаляет, после чего первый всё восстанавливает, второй удаляет вновь и так далее. И в таких спорных случаях у каждого своё мнение и свои источники, подтверждающие, что именно он прав, а оппонент ошибается. Увы, проводить быструю проверку, в том числе и с помощью искусственного интеллекта, не всегда возможно, ибо разных источников с противоположной информацией по тому или иному вопросу порой бывает много.
    • 1/0
  • Ссылка на комментарий
    К сожалению, абсолютной «правильности» нет.
    Может быть назначен орган, мнение которого будет окончательным для данного сообщества.
    И он, этот орган, тоже может ошибаться. Печально
    Меня лично беспокоит вопрос о доле участия ИИ в окончательном решении.
    Интуитивно хочется, чтобы оно было минимально.
    Что касается формальных проверок на соответствия, то они должны продолжаться бессрочно, так как живые ссылки, например, могут становиться «битыми».
    • 1/0
  • Ссылка на комментарий
    Лилия Тумина написала:
    Такая борьба тоже идёт. Эта сетевая энциклопедия славится в том числе и тем, что в некоторых статьях периодически происходят так называемые «войны правок»
    Согласна, на Википедии идет вечная борьба, это нормальное явление, я же говорю не о правках, а о предмодерации. В новости же речь идет о массовом выпиливании сгенерированных и уже опубликованных материалов.
    Лилия Тумина написала:
    Увы, проводить быструю проверку, в том числе и с помощью искусственного интеллекта, не всегда возможно, ибо разных источников с противоположной информацией по тому или иному вопросу порой бывает много.
    Поэтому гораздо проще сделать пометки для абзацев, то есть отделить абзацы с абсолютно верной информацией от спорных и неоднозначных. ИИ же нужен для автоматизации простых процессов, то есть для быстрой проверки ссылок. Если источники более-менее надежные, то статье дается ход; если источники новые и неизвестные, то материал однозначно должен уйти в песочницу для ручной проверки, с задержкой публикации на 24-48 часов.
    • 0/0
  • Ссылка на комментарий
    БЯМ будет генерировать только те статьи, на которые изначально создан запрос. Поэтому прежде всего нужно ограничить публикации, которые затрагивают наиболее часто задаваемые пользователями вопросы, а также новости.
    Некоторые ссылки на недоступные/несуществующие/посторонние источники нельзя проверить. Потому что любой сайт может быть взломан и заново заполнен быстрее, чем пройдет проверка всех спорных ссылок через сервисы энциклопедии.
    Татьяна Шокурова написала:
    материал однозначно должен уйти в песочницу для ручной проверки, с задержкой публикации на 24-48 часов.
    Так не получится. Ручная модерация — это более длительный процесс, чем написание статьи, потому что контент пишет более-менее сведущий человек, а модераторы Вики ориентируются на внешние показатели и в теме не разбираются. Статьи на ручную модерацию прилетают в большом количестве из любой сферы, в том числе технические и узкоспециализированные. Человеческий фактор может так же, как и ИИ, допустить ошибку.
    • 1/0