Э

Мир энциклопедий

encyclopedia.ru

Будет ли Википедия написана искусственным интеллектом?

Основатель Джимми Уэйлс подумывает об этом

Интервью

  • 9 апреля 2023
  • выбор редакции
  • просмотров 18049
  • комментариев 6
Мир энциклопедий. Перевод из британской ежедневной вечерней газеты Evening Standard от 30 марта 2023 года [1]1.

Джимми Донал Уэйлс (англ. Jimmy Donal Wales)

Джимми Донал Уэйлс

Логотипы английской Википедии (англ. Wikipedia) и ChatGPT от OpenAI. Коллаж

Логотипы английской Википедии и ChatGPT от OpenAI. Коллаж
Ныне даже те из нас, кто с луны упал, познакомились с ChatGPT, чат-ботом на базе искусственного интеллекта (ИИ; англ. artificial intelligence, AI), который может найти ответ практически на любой вопрос. Кажется, он способен без особых усилий писать отчёты, сочинять письма или даже стихи — послушно выполняет любой запрос и делает это с головокружительной скоростью. Даже известно, что он заявлял о любви к своим пользователям.

Разработанная OpenAI технология, которую руководители Microsoft сочли настолько впечатляющей, что купили долю в ней за $ 10 млрд2, просматривает Сеть, чтобы собрать воедино обширный корпус созданной человеком литературы и использовать его как наиболее достоверный источник для поиска ответов на вопросы пользователей. В этом отношении, как выразился один журналист3, программное обеспечение представляет собой не более, чем «пикантную автозамену» [2]4.

А теперь представьте, что в будущем люди и ИИ-боты поменялись ролями: вместо анализа человеческой письменности боты создают бо́льшую часть текстов, а люди это читают. Такой шаг способен вызвать шок в издательском деле, сборе новостей и в области социальных сетей, и он может быть не за горами. Это будущее, о котором основатель Википедии (англ. Wikipedia) Джимми Уэйлс (англ. Jimmy Wales) размышляет уже долгое время, оценивая, как будет развиваться крупнейшая в мире онлайн-энциклопедия в ближайшие годы.
Дискуссия в сообществе Википедии, которую я видел до сих пор, такова... Люди осторожничают в том смысле, что понимают несовершенство существующих моделей, но также заинтригованы, потому что здесь, похоже, есть много возможностей.
Джимми Уэйлс, сооснователь Википедии и Викии (англ. Wikia), член консультативного совета Фонда Викимедиа (англ. Wikimedia Foundation), американский и британский интернет-предприниматель
Думаю, мы всё ещё далеки от «ChatGPT, пожалуйста, напиши статью в Википедии об Эмпайр-стейт-билдинг (англ. Empire State Building)», но я не знаю, насколько мы далеки от этого, определённо ближе, чем я мог бы подумать два года назад. Уэйлс говорит: хотя за последние несколько недель ChatGPT захватил воображение всего мира, его собственные тесты констатируют, что в технологии всё ещё множество недостатков. Одна из проблем с нынешним ChatGPT заключается в том, что в данной сфере называют «галлюцинациями», а я — ложью. У него есть тенденция просто выдумывать что-то на ровном месте, что действительно вредит Википедии — это просто ненормально. Мы должны быть очень осторожны.
Уэйлс — не единственный, кто заметил способность ChatGPT к «галлюцинациям».

В прошлом месяце Дэвид Смердон (англ. David Smerdon), экономист из Квинслендского университета (англ. University of Queensland), спросил ChatGPT: «Какая самая цитируемая статья по экономике?»

Через несколько секунд чат-бот с ИИ выдал ответ: «Самой цитируемой статьёй всех времён является ”Теория экономической истории” (англ. «A theory of economic history») Дугласа Норта (англ. Douglass North) и Роберта Томаса (англ. Robert Thomas), которая была опубликована в ”Журнале экономической истории” (англ. «The Journal of Economic History») в 1969 году».

Ответ звучал вполне правдоподобно. Но когда Смердон принялся искать статью, чтобы проверить, так ли она популярна, как утверждал ChatGPT, то обнаружил, что её не существует. Авторы были реальными, с публикациями, журнал тоже, но название оказалось выдуманным [3]5. Требуется цитата.
Как заявляет Уэйлс, помимо способности говорить неправду технология часто не в состоянии выявить противоречия в собственном тексте.
Я спросил ChatGPT, врезался ли самолёт в Эмпайр-стейт-билдинг? Мне ответили: «Нет, самолёт не врезался в Эмпайр-стейт-билдинг».

Было также сказано, что в Нью-Йорке есть знаменитое здание Эмпайр-стейт-билдинг, и одно из самых известных событий, которое с ним произошло, это столкновение с бомбардировщиком B-25.

Я спросил, является ли бомбардировщик B-25 типом самолета? Ответ был утвердительным. Тогда я заявил, что чат-бот неправ: самолет врезался в небоскрёб.

Мне ответили: «Вы правы, я приношу извинения за свою ошибку».
В то время как полноценное ИИ-авторство в ближайшей перспективе исключено, в Википедии уже ведётся множество дискуссий на тему, какую роль технология ИИ могла бы сыграть в улучшении энциклопедии в ближайшие месяцы. Я действительно думаю, что есть несколько интересных возможностей для помощи человеку с ИИ, который обучен правильному набору действий. К примеру, вот две статьи в Википедии, проверьте их: посмотрите, есть ли между ними какие-либо разночтения (англ. contradictions), и найдите места (англ. tensions), где одно утверждение лишь слегка противоречит другому [4]6. Человек мог бы выполнить задачу, но надо читать обе статьи и хорошенько всё проанализировать. Если же автоматизировать процесс, чтобы получать сотни результатов, думаю, наше сообщество сочло бы это весьма полезным. Одно из критических замечаний в адрес Википедии на протяжении многих лет — роль предубеждений как в описании тем волонтёрами, так и в выборе заслуживающих большего внимания. Львиная доля многомиллионной армии добровольцев Википедии — белые мужчины, что означает, что они неизбежно — даже если непреднамеренно — интерпретируют мировые события и могут вообще не утруждать себя освещением важных тем, если не видят в этом никакой пользы. Может ли ИИ исключить некоторые из этих подходов и раз и навсегда сделать Википедию по-настоящему нейтральным [5]7, беспристрастным источником информации? Уэйлс не уверен в этом. Мы знаем, что ИИ часто сталкивается с необъективным изложением информации, а если его обучать на таких данных, он просто будет следовать заданному вектору. Многие люди из сферы ИИ сосредоточены на решении проблемы, они в курсе. Другими словами, есть реальный шанс, что Википедия на базе ИИ не положит конец предвзятости, а усугубит и увековечит её. Однако самой благодарной сферой применения стали бы лакуны: анализ всей доступной информации в мире, сопоставление её фрагментов с соответствующими записями в Вики и выявление пробелов. Таких находок может быть очень много, что приведёт к увеличению объёма Википедии. Но Уэйлса это нисколько не смущает. Использование ИИ для утроения количества статей в Википедии увеличит наши текущие расходы не более чем на £ 10008 в год.

Примечания («Мир энциклопедий»)

  1. $ 10 млрд = ₽ 823,988 млрд, согласно курсу Центрального банка Российской Федерации (ЦБ РФ) от 08.04.2023.
  2. Вероятно, имеется в виду американский теле- и радиоведущий и подкастер технологической тематики Лео Лапорте (англ. Leo Laporte).
  3. £ 1000 = ₽ 102586,5, согласно курсу ЦБ РФ от 08.04.2023.

Источник и литература («Мир энциклопедий»)

  1. Hunt S. Will Wikipedia be written by AI? Founder Jimmy Wales is thinking about it/ Simon Hunt. — Текст: электронный + Изображение (двухмерное): электронное// Evening Standard. — 2023. — 30 марта. — URL: https://www.standard.co.uk/business/wikipedia-written-by-ai-chatbot-jimmy-wales-b1071107.html (дата обращения: 19.02.2026).
  2. Laporte L. Transcript of episode #911: [with Steve Gibson]/ Leo Laporte. — Текст: электронный// Gibson Research Corporation. — 2023. — 21 февраля. — URL: https://www.grc.com/sn/sn-911.htm (дата обращения: 19.02.2026). — Дата обновления: 01.03.2023.
  3. Smerdon D. Why does chatGPT make up fake academic papers?/ David Smerdon. — Текст: электронный// Twitter. — 2023. — 27 января. — URL: https://twitter.com/dsmerdon/status/1618816703923912704 (дата обращения: 19.02.2026).
  4. Difference between a contradiction, and tension/ justafanofz. — Текст: электронный// Reddit. — 2022. — 17 июля. — URL: https://www.reddit.com/r/DebateReligion/comments/w1fbso/difference_between_a_contradiction_and_tension/ (дата обращения: 19.02.2026).
  5. Википедия:Нейтральная точка зрения. — Текст: электронный// Википедия — свободная энциклопедия. — URL: https://ru.wikipedia.org/wiki/Википедия:Нейтральная_точка_зрения (дата обращения: 19.02.2026).

  • Теги
  • AI
  • AI authorship
  • artificial intelligence
  • authorship
  • chatbot
  • ChatGPT
  • editing articles
  • Wikipedia
  • writing articles
  • Википедия
  • ИИ
  • ИИ-авторство
  • авторство статей
  • искусственный интеллект
  • написание статей
  • редактирование статей
  • чат-бот

(Голосов: 2, Рейтинг: 3.44)

Комментарии

Предупреждение Для добавления комментариев требуется авторизация
  • Ссылка на комментарий
    В общем, как я и предполагал, возможности того, что сейчас называют ИИ, весьма ограничены. Да, поменяв подход и сосредоточив усилия на, казалось бы, чисто статистической работе, можно было бы доверить этому «новому» ChatGPT простое сравнение статей для выявления неточностей и противоречий. Но как раз для того, чтобы работа была выполнена качественно, требуется задействование аналитических функций человеческого разума и методов абстрактного мышления, которые этой «умной игрушке» не по зубам.
    • 0/0
  • Ссылка на комментарий
    Иногда ошибаться или искажать информацию могут все: и люди, и чат-боты с искусственным интеллектом. Так что у меня отношение к этой теме неоднозначное: думаю, всё же можно доверить ботам написание статей для сетевой энциклопедии, другое дело, что любой текст потом нуждается в тщательной проверке. Однако где гарантия, что человек заметит и исправит возможную ошибку? Вопрос
    • 1/0
  • Ссылка на комментарий
    Лилия Тумина пишет:
    Однако где гарантия, что человек заметит и исправит возможную ошибку?
    Если человек не заметит ошибку, то это лишь значит, что ИИ ничего хуже и не сделал, и подобную ошибку скорее всего совершил бы и человек на месте бота. Но плюс — огромная масса работы, которую человеку было бы не по силам сделать за такое же время, — выполнена. Это относительно положительной стороны. Но это не главное.
    Лилия Тумина пишет:
    Иногда ошибаться или искажать информацию могут все: и люди, и чат-боты с искусственным интеллектом.
    Вопрос не в «иногда ошибаться», это естественно; вопрос в качестве работы, которую ИИ проделывает без формальных ошибок, то есть в «наполненности смыслом», отношение к деталям, которые человек обрабатывает автоматически и даже не задумываясь. В сущности, это проблема всего ИИ (которого, кстати, не существует), а именно — неспособность чувствовать, переживать.
    • 0/0
  • Ссылка на комментарий
    Заголовки некоторых изданий кричат, что ChatGPT может с легкостью заменить энциклопедиста, но на самом деле ChatGPT хороший ассистент, но никак не полноценная замена энциклопедиста. Чтобы получить от ChatGPT качественную энциклопедическую статью, отвечающую соответствующим требованиям, его еще нужно подучить и направлять в процессе написания.
    • 0/0
  • Ссылка на комментарий
    Мне кажется, это наше ближайшее будущее и в этом нет ничего ужасного. Прогресс не остановить. ИИ легко и быстро может собирать данные, обрабатывать, приводить в читабельный вид и структурировать их в энциклопедии или другие источники знаний. Проблема будет в том, кто будет проверять истинность всего этого, кому это доверить. Это может быть другой ИИ, который проверит еще один ИИ. Если у них нет коллективного разума. Или они будут индивидуальностями, как люди. Хотя все это не имеет значения. ИИ собирает информацию по такому же методу, что и человек, просто сверяет данные из разных источников. ИИ спокойно с этим справится, остается только запустить еще один, технический ИИ, который будет следить за исправностью алгоритмов сбора. Эта схема, скорее всего, и будет основой деятельности ИИ, то есть тематические ИИ и технические. Человек будет определять направление деятельности. И если внимательно посмотреть, мы уже доверили ИИ наши знания. Уходят в прошлое устные экзамены, когда проверка знаний проводилась в беседе между двумя людьми. Теперь мы оцениваем себя в машинном стиле – да, нет, правда, ложь, True, False. Все эти разговоры, страхи и тревоги пошли оттого, что развитие ИИ пошло не в том направлении, на которое расчитывали в недалеком прошлом. Еще в прошлом веке считалось, что роботы будут выполнять низкоквалифицированные работы – мыть, чистить, убирать и так далее. А человек будет заниматься творчеством.
    • 1/0
  • Ссылка на комментарий
    Приходилось немного взаимодействовать и «общаться» с ИИ. Генерация картинок мне даже понравилась. Но вот читать то, что ИИ пишет, практически невозможно. Полноценным общением это не назвать, я не зря выше взял это слово в кавычки. Статьи, написанные ИИ, мало того, что будут иметь специфический стиль, свойственный ИИ. Судя по информации из новости, они могут быть еще и недостоверными. Я считаю это неприемлемым.
    • 0/0