Э

Мир энциклопедий

encyclopedia.ru

Боты Википедии открывают новую эру в войне правок

Боты Википедии открывают новую эру в войне правок
  • 23 сентября 2016
  • просмотров 5780
  • комментариев 8
Спорные статьи Википедии (Wikipedia) регулярно переписываются, а когда в работу включается специальный софт, возникает своего рода бесконечный цикл, пишут NewScientist, MIT Technology Review и другие СМИ со ссылкой на результаты исследования специалистов из Института исследования Интернета при Оксфордском университете (Oxford Internet Institute, OII) и Института Алана Тьюринга при Кембриджском университете (Alan Turing Institute, ATI).

Как известно, для Свободной энциклопедии характерен краудсорсинговый подход, то есть статьи проекта — плод коллективного труда. Соответственно, публикации на дискуссионные темы (как правило это политика и социальные вопросы) часто правятся, а в результате — порой и вовсе блокируются администраторами от каких-либо дальнейших изменений.

При этом некоторые википедисты применяют готовый программный код — боты, которые экономят им время в попытке отслеживать изменения и править статьи. Так, в 2014 году 15% правок во всех языковых версиях Википедии делалось именно «роботами». Однако если авторы либо пользователи таких разработок оказываются людьми с полярными взглядами, это может отражаться и на алгоритмах их программ: обнаруживая нежелательные изменения, например, якобы некорректные названия, они снова и снова обновляют статьи.

«Мы с удивлением выяснили, что по факту такие алгоритмы соперничают друг с другом и постоянно откатывают работу друг друга», — сказал Таха Яссери (Taha Yasseri) из Института исследования Интернета.

Проблема в том, что подобный тип редактирования сложно идентифицировать: временные отрезки между правками могут составлять как дни и недели, так и месяцы, а то и годы, что, конечно, зависит от настроек конкретного викибота. В итоге неоднократное однотипное, но растянутое во времени изменение может не фиксироваться как подозрительная активность.

Учёные проанализировали миллиард правок из 13 языковых версий Википедии с 2001 по 2010 годы, включая 4.7 миллионов откатов, сделанных 5 миллионами человек и 2 тысячами ботов. Несмотря на отмеченную тенденцию к снижению в количестве редакторов Вики (людей и их программ), статистика по правкам оказалась обратной. Однако многие обновления носят технический характер: ссылки на другие языковые версии, переименование ссылок и т. п. Отдельная ситуация сложилась со статьями по спорным вопросам прошлого и современности.

Так, одни боты сканировали заданные статьи и заменяли текст в ссылках с «Палестины» на «Палестинскую территорию» или с «Персидского залива» на «Арабский залив». Другие — возвращались к прежним формулировкам. Были обнаружены и своего рода культурные различия. Например, у немецкого ПО был зафиксирован минимум одинаковых откатов, у португальского — максимум.

По мнению авторов исследования, подобная машинная активность вносит беспорядок и путаницу в процесс редактирования Википедии. В итоге боты часто ведут себя так же непредсказуемо и неэффективно, как и их создатели, когда бесплодные бои за отмену правок оппонентов могут продолжаться годами.

В команде специалистов уверены, что причина сложившейся ситуации лежит на поверхности — это отсутствие формального механизма для координации действий между пользователями подобных разработок.

Конечно, учёные не ставят задачу создать соответствующие механизмы взаимодействия, однако считают, что их труд наглядно продемонстрировал, как относительно простые боты могут генерировать сложную динамику правок с непредсказуемыми последствиями. Данный факт особенно беспокоит исследователей, так как Википедия, по их мнению, представляет собой закрытое сообщество с хорошо управляемой активностью ботов.

При этом Вики может даже выгодно отличаться от «чистых» СМИ и социальных сетей. Например, ещё в 2009 году группа исследователей пришла к выводу, что 25% всех постов в Twitter — результат деятельности программ. Очевидно, что чем меньше регулируется сообщество, тем менее предсказуема и его машинная активность. В любом случае анализ взаимодействия ботов и прогнозирование их поведения представляется авторам исследования интересным, перспективным направлением для дальнейшей работы.

Упомянутые персоны, псевдонимы и персонажи


  • Теги
  • ATI
  • bots
  • editing articles
  • edits
  • OII
  • research
  • wikibots
  • Wikipedia
  • Wikipedia wars
  • Википедия
  • Википедия-войны
  • боты
  • викиботы
  • войны правок
  • исследование
  • правки
  • программы
  • редактирование
  • редактирование статей

(Голосов: 1, Рейтинг: 3.3)

Комментарии

Предупреждение Для добавления комментариев требуется авторизация
  • Ссылка на комментарий
    М-м-да...
    Как говорится, если этой проблемы нет, то ее надо создать самому, даже если для этого нужно применять нехилый мозговой штурм и плоды технического прогресса —
    ...Однако если авторы либо пользователи таких разработок оказываются людьми с полярными взглядами, это может отражаться и на алгоритмах их программ: обнаруживая нежелательные изменения, например, якобы некорректные названия, они снова и снова обновляют статьи.
    Скептически
    Но не перейдет ли эта "война правок на новый лад" в элементарное баловство?   Вопрос  
    Конечно, к Вики как надежному источнику информации относиться пока нельзя, но и рушить то, что есть — тоже не следовало бы.
    Пустить бы эту энергию ботов-"википедистов" с их недюжинными способностями к программированию в более созидательное русло.  Скептически
    • 0/0
  • Ссылка на комментарий
    Это — проблема электронных энциклопедических изданий, оборотная сторона скорости и бесплатности работы авторов. Жаль, но нужно воспринимать это как должное.  Печально
    • 0/0
  • Ссылка на комментарий
    Забавно, что война правок докатилась и до роботов. Считаю, что к некоторым статьям сетевой энциклопедии нужно дать права редактирования только очень ограниченному (при этом политически нейтрально настроенному) кругу лиц, чтобы ни роботы, ни вандалы не могли их портить.
    • 0/0
  • Ссылка на комментарий
    Роман Троцкий пишет:
    Это — проблема электронных энциклопедических изданий, оборотная сторона скорости и бесплатности работы авторов. Жаль, но нужно воспринимать это как должное.
    Если бы это касалось желтых порталов, то да — неизбежное зло. Но Википедия-то претендует на энциклопедичность. В данной ситуации лучше прикрыть эту лавочку со свободными правками и ввести персональную ответственность редакторов. Идея
    • 0/0
  • Ссылка на комментарий
    Natty пишет:
    Роман Троцкий пишет:
    Это — проблема электронных энциклопедических изданий, оборотная сторона скорости и бесплатности работы авторов. Жаль, но нужно воспринимать это как должное.
    Если бы это касалось желтых порталов, то да — неизбежное зло. Но Википедия-то претендует на энциклопедичность. В данной ситуации лучше прикрыть эту лавочку со свободными правками и ввести персональную ответственность редакторов.
    Простите, а каким образом вы можете персонализировать ответственность того, кто пишет в Вики? Они зарплаты не получают и максимум, что можно сделать, так это заблокировать автора, но никто не помешает ему начать писать под другими данными и с другого IP.
    Что же касаемо войны ботов, то явление на самом деле интересное, и бояться, на мой взгляд, его не стоит. Процесс битвы, на мой взгляд, рано или поздно достигнет апогея, и после этого все упорядочится.
    • 0/0
  • Ссылка на комментарий
    lisss пишет:
    ...Что же касаемо войны ботов, то явление на самом деле интересное, и бояться, на мой взгляд, его не стоит. Процесс битвы, на мой взгляд, рано или поздно достигнет апогея, и после этого все упорядочится.
    То есть вы предлагаете воспринимать это как игру?
    Или как своего рода этап развития?
    В таком случае, КАК будет возможно определить пик этого самого "апогея"?
    Хотя, как мне кажется, и сами ученые воспринимают этот феномен скорее не как проблему конкретно Вики, а как бесплатный полигон для собственных научных экспериментов —
    Конечно, учёные не ставят задачу создать соответствующие механизмы взаимодействия, однако считают, что их труд наглядно продемонстрировал, как относительно простые боты могут генерировать сложную динамику правок с непредсказуемыми последствиями. Данный факт особенно беспокоит исследователей, так как Википедия, по их мнению, представляет собой закрытое сообщество с хорошо управляемой активностью ботов.
    Скептически
    • 0/0
  • Ссылка на комментарий
    Лилия Тумина пишет:
    некоторым статьям сетевой энциклопедии нужно дать права редактирования только очень ограниченному (при этом политически нейтрально настроенному) кругу лиц
    Некоторые считают, что вообще все статьи о Земле и землянах надо писать только марсианам. С улыбкой
    • 0/0
  • Ссылка на комментарий
    Не может быть одного общего взгляда на что-то, кроме голых фактов. И ни одна энциклопедия не является набором общепринятых истин, поэтому или энциклопедия будет мёртво и незыблемо отражать взгляд начальства на любую проблему, или, как Википедия, — постоянно плавать между полярными мнениями.  Тот же Дзержинский сегодня будет "выдающимся государственным деятелем", а завтра — "палачом и садистом". Всё зависит от того, кто сделает очередную правку.  Так и получится — сегодня моя правда, а завтра — твоя.
    • 0/0