Убийство Керчер – не единственный случай, когда Wikipedia оказалась втянута в конфликт. Далеко не единственный. В статье на платформе под названием «Википедия: список спорных тем»[111] перечислены более 800 тем, которые постоянно редактируются повторно или иным образом становятся объектами войны правок или причинами применения санкций. Темы разделены на подразделы: «Политика и экономика», «История», «Наука, биология и здоровье», «Философия» и «СМИ и культура» – и включают такие статьи, как «Анархизм», «Отрицание геноцида», «Захвати Уолл‑стрит» и «Лунный заговор», а также «Харе Кришна», «Хиропрактики», «SeaWorld» и «Музыка диско».
Ограничение открытости с помощью искусного курирования. Как Wikipedia установить высокие стандарты качества контента платформы, когда некоторые ее пользователи стремятся манипулировать ими в своих целях? Это непросто. Те, кто управляет платформой, стараются полагаться только на коллективные стандарты и социальное давление. С помощью таких статей, как «Википедия: пять столпов», распространяются руководящие положения, объясняющие «фундаментальные принципы» платформы следующим образом.
Wikipedia придерживается нейтральной точки зрения – это означает, что при наличии различных мнений в статьях не должно отдаваться предпочтение какому‑либо одному из них. Излагая в статье несколько разных точек зрения, следует действовать как можно более аккуратно, сопровождая каждую из них необходимым контекстом. Не следует представлять то или иное суждение как «единственно верное» или как «истину в последней инстанции». Соблюдение НТЗ также означает необходимость предоставления ссылок на проверяемые авторитетные источники везде, где это возможно, особенно при работе над спорными темами. ‹…› Оригинальные идеи, толкования, результаты самостоятельно проведенных исследований невозможно проверить, а потому они здесь неуместны.
И все же иногда общественного давления недостаточно. Когда качество статьи постоянно снижается из‑за ошибочного или ложного содержимого, в силу вступают другие методы и инструменты защиты цельности Wikipedia. К ним относится VandalProof – программа, написанная специально для Wikipedia и отмечающая статьи, отредактированные пользователями, за которыми тянется история ненадежной работы. Ее отметки привлекают внимание к потенциально проблемным статьям, так что другие редакторы могут переписать и при необходимости улучшить их. Также существует ряд блокирующих и защитных систем, которые могут быть использованы только пользователями, заслужившими особые привилегии, согласно консенсусу сообщества Wikipedia.
Этот сложный, в основном самоорганизуемый набор взаимосвязанных систем, поддерживающих качество контента Wikipedia, является формой курирования – процесс критической защиты контента, который должен быть тонко настроен, чтобы добиться нужного уровня и типа открытости производителей.
Курирование обычно принимает формы отбора и обратной связи в важных точках доступа к платформе. Отбор показывает, кого допустить, а обратная связь поощряет желательное поведение тех, кто уже получил допуск. Репутация пользователя, сформированная его прошлым поведением на платформе и вне ее, обычно становится ключевым фактором при курировании: пользователи, которые получают положительный рейтинг от остального сообщества, скорее пройдут отбор и получат положительную обратную связь, чем те, у кого репутация плохая.
Курированием можно управлять с помощью людей – модераторов, которые лично отбирают пользователей, редактируют контент и дают обратную связь для продвижения качества. Такие медиаплатформы, как блоги и онлайн‑журналы, часто используют этот тип системы. Наем профессиональных модераторов и оплата их работы отнимают время и деньги. В лучшей системе – хотя ее сложно разработать и внедрить – сами пользователи курируют платформу с помощью программных инструментов, которые быстро собирают и агрегируют обратную связь и применяют ее к решениям по курированию.
Пользовательское курирование облегчают программные инструменты. Этот подход применяет Wikipedia. Facebook полагается на пользователей, отмечающих сомнительный контент: ксенофобские высказывания, травлю, оскорбительные изображения и угрозы насилия. Платформы услуг, например Uber и Airbnb, используют пользовательские рейтинги в своих программных инструментах так, чтобы производители и потребители могли выбрать, с кем они будут взаимодействовать, основываясь на разносторонней информации.