Э

Мир энциклопедий

encyclopedia.ru

Будет ли Википедия написана искусственным интеллектом?

Основатель Джимми Уэйлс подумывает об этом

Интервью

  • 30 марта 2023
  • выбор редакции
  • просмотров 14956
  • комментариев 6
Мир энциклопедий. Перевод из британской ежедневной вечерней газеты Evening Standard от 30 марта 2023 года [1]1.

Джимми Донал Уэйлс (Jimmy Donal Wales)

Джимми Донал Уэйлс (Jimmy Donal Wales)

Логотипы английской Википедии (Wikipedia) и ChatGPT от OpenAI. Коллаж

Логотипы английской Википедии (Wikipedia) и ChatGPT от OpenAI. Коллаж
Ныне даже те из нас, кто с луны упал, познакомились с ChatGPT, чат-ботом на базе искусственного интеллекта (ИИ; artificial intelligence, AI), который может найти ответ практически на любой вопрос. Кажется, он способен без особых усилий писать отчёты, сочинять письма или даже стихи — послушно выполняет любой запрос и делает это с головокружительной скоростью. Даже известно, что он заявлял о любви к своим пользователям.

Разработанная OpenAI технология, которую руководители Microsoft сочли настолько впечатляющей, что купили долю в ней за $ 10 млрд2, просматривает Сеть, чтобы собрать воедино обширный корпус созданной человеком литературы, и использует его для поиска ответов на вопросы пользователей, которые, по её мнению, наиболее правдоподобны. В этом отношении, как выразился один журналист3, программное обеспечение представляет собой не более, чем «пикантную автозамену» [2]4.

А теперь представьте, что в будущем люди и ИИ-боты поменялись ролями: вместо анализа человеческой письменности боты создают бо́льшую часть текстов, а люди это читают. Такой шаг способен вызвать шок в издательском деле, сборе новостей и в области социальных сетей, и он может быть не за горами. Это будущее, о котором основатель Википедии (Wikipedia) Джимми Уэйлс (Jimmy Wales) размышляет уже долгое время, оценивая, как будет развиваться крупнейшая в мире онлайн-энциклопедия в ближайшие годы.
Дискуссия в сообществе Википедии, которую я видел до сих пор, такова... Люди осторожничают в том смысле, что понимают несовершенство существующих моделей, но также заинтригованы, потому что здесь, похоже, есть много возможностей.
Джимми Уэйлс, сооснователь Википедии и Викии (Wikia), член консультативного совета Фонда Викимедиа (Wikimedia Foundation), американский и британский интернет-предприниматель
Думаю, мы всё ещё далеки от «ChatGPT, пожалуйста, напиши статью в Википедии об Эмпайр-стейт-билдинг (Empire State Building)», но я не знаю, насколько мы далеки от этого, определённо ближе, чем я мог бы подумать два года назад. Уэйлс говорит: хотя за последние несколько недель ChatGPT захватил воображение всего мира, его собственные тесты констатируют, что в технологии всё ещё множество недостатков. Одна из проблем с нынешним ChatGPT заключается в том, что в данной сфере называют «галлюцинациями», а я — ложью. У него есть тенденция просто выдумывать что-то на ровном месте, что действительно вредит Википедии — это просто ненормально. Мы должны быть очень осторожны.
Уэйлс — не единственный, кто заметил способность ChatGPT к «галлюцинациям».

В прошлом месяце Дэвид Смердон (David Smerdon), экономист из Квинслендского университета (University of Queensland), спросил ChatGPT: «Какая самая цитируемая статья по экономике?»

Через несколько секунд чат-бот с ИИ выдал ответ: «Самой цитируемой статьёй всех времён является ”Теория экономической истории” (A Theory of Economic History) Дугласа Норта (Douglass North) и Роберта Томаса (Robert Thomas), которая была опубликована в ”Журнале экономической истории” (The Journal of Economic History) в 1969 году».

Ответ звучал вполне правдоподобно. Но когда Смердон принялся искать статью, чтобы проверить, так ли она популярна, как утверждал ChatGPT, то обнаружил, что её не существует. Авторы были настоящими, с публикациями, и журнал тоже был настоящим. Но название работы было полностью сфабриковано [3]5. Требуется цитирование.
Как заявляет Уэйлс, помимо способности говорить неправду технология часто не в состоянии выявить противоречия в собственном тексте.
Я спросил ChatGPT, врезался ли самолёт в Эмпайр-стейт-билдинг? И там было сказано: «Нет, самолёт не врезался в Эмпайр-стейт-билдинг».

Но затем говорилось, что в Нью-Йорке есть знаменитое здание, и одно из самых известных событий, которые с ним происходили, — когда бомбардировщик B-25 врезался в Эмпайр-стейт-билдинг.

Я спросил, является ли бомбардировщик B-25 типом самолета? Ответ был утвердительным. Тогда я заявил, что чатбот был неправ, когда сказал, что самолет не врезался в небоскрёб.

Мне ответили: «Вы правы, я приношу извинения за свою ошибку».
В то время как полноценное ИИ-авторство в ближайшей перспективе исключено, в Википедии уже ведётся множество дискуссий на тему, какую роль технология ИИ могла бы сыграть в улучшении энциклопедии в ближайшие месяцы. Я действительно думаю, что есть несколько интересных возможностей для помощи человеку с ИИ, который обучен правильному набору действий. К примеру, вот две статьи в Википедии, проверьте их: посмотрите, есть ли между ними какие-либо противоречия (contradictions), и определите трения (tensions), когда одна лишь слегка противоречит другой [4]6. Человек мог бы выполнить задачу, но надо читать обе статьи и хорошенько всё проанализировать. Если же автоматизировать процесс, чтобы получать сотни результатов, думаю, наше сообщество сочло бы это весьма полезным. Одно из критических замечаний в адрес Википедии на протяжении многих лет — возможность для предубеждений как в описании тем волонтёрами, так и в выборе, какая из них заслуживает большего либо меньшего внимания. Подавляющее большинство многомиллионной армии добровольцев Википедии — мужчины и белые, что означает, что они неизбежно — даже если непреднамеренно — интерпретируют мировые события с точки зрения мужчин и белых — и могут вообще не утруждать себя освещением важных тем, если не видят в этом никакой пользы. Может ли ИИ стать способом нейтрализовать некоторые из этих подходов и раз и навсегда сделать Википедию по-настоящему нейтральным [5]7, беспристрастным источником информации? Уэйлс не уверен в этом. Мы знаем, что ИИ часто сталкивается с необъективно изложенной информацией, а если его обучать на таких данных, он просто будет следовать заданному вектору. Многие люди из сферы ИИ сосредоточены на решении проблемы, они в курсе. Другими словами, есть реальный шанс, что Википедия на базе ИИ не положит конец предвзятости, а усугубит и увековечит её. Однако самой благодарной сферой применения стали бы лакуны: анализ всей доступной информации в мире, сопоставление её фрагментов с соответствующими записями в Вики и выявление пробелов. Таких находок может быть очень много, что приведёт к увеличению объёма Википедии. Но Уэйлса это нисколько не смущает. Использование ИИ для утроения количества статей в Википедии увеличит наши текущие расходы не более чем на £ 10008 в год.

Примечания («Мир энциклопедий»)

  1. $ 10 млрд = ₽ 823,988 млрд, согласно курсу Центрального банка Российской Федерации (ЦБ РФ) от 08.04.2023.
  2. Вероятно, имеется в виду американский теле- и радиоведущий и подкастер технологической тематики Лео Лапорте (Leo Laporte).
  3. £ 1000 = ₽ 102586,5, согласно курсу ЦБ РФ от 08.04.2023.

Источник и литература («Мир энциклопедий»)

  1. Hunt S. Will Wikipedia be written by AI? Founder Jimmy Wales is thinking about it/ Simon Hunt. — Текст: электронный// Evening Standard. — 2023. — 30 марта. — URL: https://www.standard.co.uk/business/wikipedia-written-by-ai-chatbot-jimmy-wales-b1071107.html (дата обращения: 09.04.2023).
  2. Laporte L. Transcript of episode #911: [with Steve Gibson]/ Leo Laporte. — Текст: электронный// Gibson Research Corporation. — 2023. — 21 февраля. — URL: https://www.grc.com/sn/sn-911.htm (дата обращения: 09.04.2023). — Дата обновления: 01.03.2023.
  3. Smerdon D. Why does chatGPT make up fake academic papers?/ David Smerdon. — Текст: электронный// Twitter. — 2023. — 27 января. — URL: https://twitter.com/dsmerdon/status/1618816703923912704 (дата обращения: 09.04.2023).
  4. Difference between a contradiction, and tension/ justafanofz. — Текст: электронный// Reddit. — 2022. — 17 июля. — URL: https://www.reddit.com/r/DebateReligion/comments/w1fbso/difference_between_a_contradiction_and_tension/ (дата обращения: 09.04.2023).
  5. Википедия:Нейтральная точка зрения. — Текст: электронный// Википедия — свободная энциклопедия. — URL: https://ru.wikipedia.org/wiki/Википедия:Нейтральная_точка_зрения (дата обращения: 09.04.2023).

  • Теги
  • AI
  • AI authorship
  • artificial intelligence
  • authorship
  • chatbot
  • ChatGPT
  • editing articles
  • Wikipedia
  • writing articles
  • Википедия
  • ИИ
  • ИИ-авторство
  • авторство статей
  • искусственный интеллект
  • написание статей
  • редактирование статей
  • чат-бот

(Голосов: 2, Рейтинг: 3.44)

Комментарии

Предупреждение Для добавления комментариев требуется авторизация
  • Ссылка на комментарий
    В общем, как я и предполагал, возможности того, что сейчас называют ИИ, весьма ограничены. Да, поменяв подход и сосредоточив усилия на, казалось бы, чисто статистической работе, можно было бы доверить этому «новому» ChatGPT простое сравнение статей для выявления неточностей и противоречий. Но как раз для того, чтобы работа была выполнена качественно, требуется задействование аналитических функций человеческого разума и методов абстрактного мышления, которые этой «умной игрушке» не по зубам.
    • 0/0
  • Ссылка на комментарий
    Иногда ошибаться или искажать информацию могут все: и люди, и чат-боты с искусственным интеллектом. Так что у меня отношение к этой теме неоднозначное: думаю, всё же можно доверить ботам написание статей для сетевой энциклопедии, другое дело, что любой текст потом нуждается в тщательной проверке. Однако где гарантия, что человек заметит и исправит возможную ошибку? Вопрос
    • 1/0
  • Ссылка на комментарий
    Лилия Тумина пишет:
    Однако где гарантия, что человек заметит и исправит возможную ошибку?
    Если человек не заметит ошибку, то это лишь значит, что ИИ ничего хуже и не сделал, и подобную ошибку скорее всего совершил бы и человек на месте бота. Но плюс — огромная масса работы, которую человеку было бы не по силам сделать за такое же время, — выполнена. Это относительно положительной стороны. Но это не главное.
    Лилия Тумина пишет:
    Иногда ошибаться или искажать информацию могут все: и люди, и чат-боты с искусственным интеллектом.
    Вопрос не в «иногда ошибаться», это естественно; вопрос в качестве работы, которую ИИ проделывает без формальных ошибок, то есть в «наполненности смыслом», отношение к деталям, которые человек обрабатывает автоматически и даже не задумываясь. В сущности, это проблема всего ИИ (которого, кстати, не существует), а именно — неспособность чувствовать, переживать.
    • 0/0
  • Ссылка на комментарий
    Заголовки некоторых изданий кричат, что ChatGPT может с легкостью заменить энциклопедиста, но на самом деле ChatGPT хороший ассистент, но никак не полноценная замена энциклопедиста. Чтобы получить от ChatGPT качественную энциклопедическую статью, отвечающую соответствующим требованиям, его еще нужно подучить и направлять в процессе написания.
    • 0/0
  • Ссылка на комментарий
    Мне кажется, это наше ближайшее будущее и в этом нет ничего ужасного. Прогресс не остановить. ИИ легко и быстро может собирать данные, обрабатывать, приводить в читабельный вид и структурировать их в энциклопедии или другие источники знаний. Проблема будет в том, кто будет проверять истинность всего этого, кому это доверить. Это может быть другой ИИ, который проверит еще один ИИ. Если у них нет коллективного разума. Или они будут индивидуальностями, как люди. Хотя все это не имеет значения. ИИ собирает информацию по такому же методу, что и человек, просто сверяет данные из разных источников. ИИ спокойно с этим справится, остается только запустить еще один, технический ИИ, который будет следить за исправностью алгоритмов сбора. Эта схема, скорее всего, и будет основой деятельности ИИ, то есть тематические ИИ и технические. Человек будет определять направление деятельности. И если внимательно посмотреть, мы уже доверили ИИ наши знания. Уходят в прошлое устные экзамены, когда проверка знаний проводилась в беседе между двумя людьми. Теперь мы оцениваем себя в машинном стиле – да, нет, правда, ложь, True, False. Все эти разговоры, страхи и тревоги пошли оттого, что развитие ИИ пошло не в том направлении, на которое расчитывали в недалеком прошлом. Еще в прошлом веке считалось, что роботы будут выполнять низкоквалифицированные работы – мыть, чистить, убирать и так далее. А человек будет заниматься творчеством.
    • 1/0
  • Ссылка на комментарий
    Приходилось немного взаимодействовать и «общаться» с ИИ. Генерация картинок мне даже понравилась. Но вот читать то, что ИИ пишет, практически невозможно. Полноценным общением это не назвать, я не зря выше взял это слово в кавычки. Статьи, написанные ИИ, мало того, что будут иметь специфический стиль, свойственный ИИ. Судя по информации из новости, они могут быть еще и недостоверными. Я считаю это неприемлемым.
    • 0/0