Основатель Джимми Уэйлс подумывает об этом
Интервью
Дискуссия в сообществе Википедии, которую я видел до сих пор, такова... Люди осторожничают в том смысле, что понимают несовершенство существующих моделей, но также заинтригованы, потому что здесь, похоже, есть много возможностей.Джимми Уэйлс, сооснователь Википедии и Викии (Wikia), член консультативного совета Фонда Викимедиа (Wikimedia Foundation), американский и британский интернет-предприниматель
Думаю, мы всё ещё далеки от «ChatGPT, пожалуйста, напиши статью в Википедии об Эмпайр-стейт-билдинг (Empire State Building)», но я не знаю, насколько мы далеки от этого, определённо ближе, чем я мог бы подумать два года назад.Уэйлс говорит: хотя за последние несколько недель ChatGPT захватил воображение всего мира, его собственные тесты констатируют, что в технологии всё ещё множество недостатков.
Одна из проблем с нынешним ChatGPT заключается в том, что в данной сфере называют «галлюцинациями», а я — ложью.
У него есть тенденция просто выдумывать что-то на ровном месте, что действительно вредит Википедии — это просто ненормально. Мы должны быть очень осторожны.
Я спросил ChatGPT, врезался ли самолёт в Эмпайр-стейт-билдинг? И там было сказано: «Нет, самолёт не врезался в Эмпайр-стейт-билдинг».В то время как полноценное ИИ-авторство в ближайшей перспективе исключено, в Википедии уже ведётся множество дискуссий на тему, какую роль технология ИИ могла бы сыграть в улучшении энциклопедии в ближайшие месяцы.
Но затем говорилось, что в Нью-Йорке есть знаменитое здание, и одно из самых известных событий, которые с ним происходили, — когда бомбардировщик B-25 врезался в Эмпайр-стейт-билдинг.
Я спросил, является ли бомбардировщик B-25 типом самолета? Ответ был утвердительным. Тогда я заявил, что чатбот был неправ, когда сказал, что самолет не врезался в небоскрёб.
Мне ответили: «Вы правы, я приношу извинения за свою ошибку».
Я действительно думаю, что есть несколько интересных возможностей для помощи человеку с ИИ, который обучен правильному набору действий. К примеру, вот две статьи в Википедии, проверьте их: посмотрите, есть ли между ними какие-либо противоречия (contradictions), и определите трения (tensions), когда одна лишь слегка противоречит другой [4]6.
Человек мог бы выполнить задачу, но надо читать обе статьи и хорошенько всё проанализировать. Если же автоматизировать процесс, чтобы получать сотни результатов, думаю, наше сообщество сочло бы это весьма полезным.Одно из критических замечаний в адрес Википедии на протяжении многих лет — возможность для предубеждений как в описании тем волонтёрами, так и в выборе, какая из них заслуживает большего либо меньшего внимания. Подавляющее большинство многомиллионной армии добровольцев Википедии — мужчины и белые, что означает, что они неизбежно — даже если непреднамеренно — интерпретируют мировые события с точки зрения мужчин и белых — и могут вообще не утруждать себя освещением важных тем, если не видят в этом никакой пользы. Может ли ИИ стать способом нейтрализовать некоторые из этих подходов и раз и навсегда сделать Википедию по-настоящему нейтральным [5]7, беспристрастным источником информации? Уэйлс не уверен в этом.
Мы знаем, что ИИ часто сталкивается с необъективно изложенной информацией, а если его обучать на таких данных, он просто будет следовать заданному вектору. Многие люди из сферы ИИ сосредоточены на решении проблемы, они в курсе.Другими словами, есть реальный шанс, что Википедия на базе ИИ не положит конец предвзятости, а усугубит и увековечит её. Однако самой благодарной сферой применения стали бы лакуны: анализ всей доступной информации в мире, сопоставление её фрагментов с соответствующими записями в Вики и выявление пробелов. Таких находок может быть очень много, что приведёт к увеличению объёма Википедии. Но Уэйлса это нисколько не смущает.
Использование ИИ для утроения количества статей в Википедии увеличит наши текущие расходы не более чем на £ 10008 в год.
(Голосов: 2, Рейтинг: 3.44) |
Лилия Тумина пишет:Если человек не заметит ошибку, то это лишь значит, что ИИ ничего хуже и не сделал, и подобную ошибку скорее всего совершил бы и человек на месте бота. Но плюс — огромная масса работы, которую человеку было бы не по силам сделать за такое же время, — выполнена. Это относительно положительной стороны. Но это не главное.
Однако где гарантия, что человек заметит и исправит возможную ошибку?
Лилия Тумина пишет:Вопрос не в «иногда ошибаться», это естественно; вопрос в качестве работы, которую ИИ проделывает без формальных ошибок, то есть в «наполненности смыслом», отношение к деталям, которые человек обрабатывает автоматически и даже не задумываясь. В сущности, это проблема всего ИИ (которого, кстати, не существует), а именно — неспособность чувствовать, переживать.
Иногда ошибаться или искажать информацию могут все: и люди, и чат-боты с искусственным интеллектом.