Все начинало проясняться. Был только один модератор, которому было поручено следить за потоком контента, создаваемого в Мьянме, и этот человек говорил только по-бирмански. Многочисленные жалобы на преследования и разжигание ненависти оставались без ответа, потому что компания едва ли обращала на них внимание. Объем информации, который генерировался в Мьянме, был огромным, но Facebook не расширяла штат сотрудников, чтобы поспевать за ним.
«В Мьянме говорят, наверное, на ста языках, а диалектов еще больше, но Facebook решила, что достаточно бирманского, – сказал один активист из Мьянмы, который видел, как сообщение появилось в группе Facebook. – Это все равно что сказать: “Ну, у нас есть один носитель немецкого языка, поэтому мы можем контролировать всю Европу”».
После июльских беспорядков PR-команда Facebook выступила с официальным заявлением, дав обещание работать еще усерднее в целях защиты безопасности пользователей в Мьянме. В своей группе в Facebook сотрудники компании попросили Шисслера и других активистов помочь перевести их раздел «Общественнные стандарты» на бирманский язык. Бирманская неправительственная организация Phandeeyar сотрудничала с Facebook по вопросам перевода. Она также инициировала общественную кампанию по цифровым «пакетам информационных стикеров». Пользователи могли легко добавлять такие стикеры к постам, чтобы предотвратить распространение вредных высказываний. На стикерах были изображены мультяшные фигурки юной девушки, бабушки или плачущего ребенка с носом-пуговкой и румяными щечками. Они содержали сообщения «Думай, прежде чем поделиться» и «Не будь причиной насилия». Стикеры, по словам Facebook, помогали модераторам выявлять вредные посты и быстрее их удалять.
Но Шисслер и другие вскоре поняли, что стикеры повлекли за собой непредусмотренные последствия: алгоритмы Facebook учитывали их как еще один знак, что людям нравился пост. Вместо того чтобы уменьшить количество людей, увидевших материал, разжигающий ненависть, стикеры давали обратный эффект: они делали посты более популярными.
Шисслер был все более раздосадован отсутствием реакции со стороны компании и сократил свое участие в деятельности онлайн-группы. Однако он предпринял последнюю попытку достучаться до Facebook. В марте 2015 года он совместил личную поездку в Калифорнию с посещением Менло-Парка. В небольшом конференц-зале, где собралось около дюжины сотрудников Facebook, а остальные присоединились по видеосвязи, он представил презентацию в PowerPoint, которая документально подтверждала серьезность происходящего в Мьянме: риторика ненависти в Facebook вызвала реальное насилие в стране, и это привело к гибели людей.
Позже он встретился с небольшой группой сотрудников, которые были заинтересованы в продолжении дискуссии. Ближе к концу встречи одна из сотрудниц Facebook обратилась к нему с вопросом. Нахмурив брови, она попросила Шисслера предсказать, что произойдет в Мьянме в ближайшие месяцы или годы. «Возможно ли, – спросила она, – что люди преувеличивают масштабы насилия?» Она слышала, что уже произносится слово
«В этом нет никаких сомнений, – ответил он. – Если Мьянма продолжит идти по своему нынешнему пути и антимусульманская риторика ненависти не прекратится, то геноцид вполне возможен». Никто не стал задавать дальнейших вопросов. После ухода Шисслера два сотрудника Facebook задержались в коридоре за дверью конференц-зала. «Он не может говорить это всерьез, – громко сказал один из них. – Это просто невозможно».
Корень проблемы дезинформации, конечно, лежал в технологиях. Facebook была создана для того, чтобы подливать масла в огонь любого высказывания, вызывающего эмоции, даже если это была риторика ненависти: алгоритмы отдавали приоритет сенсационности. Пользователь нажимал на ссылку из соображений любопытства, ужаса или заинтересованности – это было неважно; система видела, что сообщение часто читают, и продвигала его по страницам пользователей в Facebook. Ситуация в Мьянме стала смертельно опасным экспериментом того, что может произойти, когда интернет приходит в страну, где социальная сеть становится основным и пользующимся доверием источником новостей.
Facebook была прекрасно осведомлена о способности своей платформы манипулировать эмоциями людей, о чем весь мир узнал в начале июня 2014 года, когда стало известно о тайно проведенном компанией эксперименте. Эксперимент обнажил как возможности Facebook по проникновению в психику своих пользователей, так и его готовность проверять границы своих возможностей без ведома пользователей.