Авторитетные новостные источники старались опровергнуть слухи об отключении света. Помню, я видел твиты репортеров NPR и Washington Post с селфи, доказывающими, что они находятся в Вашингтоне, в окружении хорошо освещенных зданий и уличных фонарей.
И тут на мою ленту хлынула вторая волна психопата. Стали появляться сотни сообщений с новым хэштегом #DCSafe, отрицающих факт отключения электричества в Вашингтоне. В отличие от твитов репортеров, опровергающих отключение, эти твиты были явно скопированы пси-воинами или, возможно, ботами. Все они использовали одни и те же причудливые формулировки:
Да... как человек, наблюдающий за трендом #dcblackout, который живет и работает в районе метро DC, и у которого есть друзья, работающие в DC в настоящее время. . . . Этот хэштег выглядит как дезинформация. "Никаких социальных сетей из Вашингтона", потому что мы спали. Хватит пугать людей. #dcsafe
Это была психопатия, созданная для того, чтобы выглядеть как психопатия. Люди в Twitter быстро заметили дублирующие твиты, исходящие от самых разных аккаунтов, и назвали их поддельными. Но зачем группе пси-агентов нужно, чтобы их жертвы поняли, что их одурачили? Ответ заключается в том, что они этого не делали. Сделав "развенчивающие" твиты #DCSafe такими явно неаутентичными, оперативники также поставили под сомнение настоящие твиты журналистов из NPR и других организаций. Операция #DCSafe создала впечатление, что какая-то теневая группа пытается скрыть происходящее в Вашингтоне, и что основные СМИ в этом замешаны. Любой, кто развенчивал #DCBlackout, выглядел подозрительным по ассоциации, как будто он был частью псиопы. Это был блестящий гнусный ход: операция влияния, чтобы вызвать страх перед фальшивым отключением, а затем вызвать страх перед фальшивым сокрытием фальшивого отключения. Хотя я был обеспокоен тем, как быстро распространилась дезинформация, я не мог не восхититься сложной структурой повествования этой мистификации - особенно тем, как она была мета-структурирована, когда твиты #DCSafe привлекали внимание к себе как к психопату, чтобы усилить дезинформацию от первой волны твитов #DCBlackout.
Операция DCBlackout/DCSafe стала примером того, что эксперты по дезинформации называют "скоординированным неаутентичным поведением". Хотя никто не назвал исполнителей этой конкретной психопатической акции, она, несомненно, была скоординирована оперативниками, возможно, иностранными, а затем усилена обычными людьми, следящими за хэштегом. У первого твита с хэштегом #DCBlackout было всего три подписчика, но затем он был усилен аккаунтами с большим охватом и стал массово вирусным в считанные минуты. Мне стало интересно, как это произошло, причем так быстро.
Оказалось, что я был не единственным. Через несколько недель после этой мистификации в журнале Science Advances вышла статья, в которой предлагался способ, с помощью которого мы сможем бороться с подобными операциями влияния в будущем. Группа исследователей рассказала о том, как они создали автоматизированную систему для выявления операций влияния в социальных сетях и предсказания их дальнейших действий. Исследователь Принстонского университета Мейсам Ализаде рассказал мне, что группа хотела сделать публичную панель, показывающую, "что происходит в социальных сетях и есть ли там скоординированная деятельность, спонсируемая иностранными государствами". Они обучили набор алгоритмов, позволяющих выявлять признаки так называемых кампаний влияния. Работая с наборами данных, опубликованными Twitter и Reddit, группа сосредоточилась на деятельности троллей из России, Китая и Венесуэлы в период с 2015 по 2018 год.
Вскоре алгоритмы научились выявлять характерные пропагандистские паттерны. Ализаде и его коллеги запустили их в работу на наборах данных, содержащих несколько постов троллей и несколько "контрольных" постов обычных пользователей, чтобы посмотреть, как они себя поведут. После нескольких попыток алгоритмы в большинстве случаев смогли предсказать, является ли сообщение троллем. Легче всего было определить венесуэльских троллей - в некоторых тестах точность составляла 99 %. Когда речь шла о китайских и российских троллях, алгоритмы справлялись с задачей от 74 до 92 процентов раз. Это не идеально, но это хорошее начало.
Вопрос в том, как отделить настоящую чушь в социальных сетях от подделки, когда поддельные аккаунты постоянно обсуждают новые темы? По словам Ализаде, ответ заключается в том, чтобы каждый месяц обучать этих ботов, ищущих троллей, на новых данных. Используя активность предыдущего месяца, он и его команда пытаются создать точные пропагандистские прогнозы погоды на следующий месяц. Такую работу иногда называют "предбанкингом", и она уже доказала свою эффективность. Однако это всегда будет гонка вооружений, особенно если оперативники начнут переходить с одной платформы на другую или использовать ИИ вроде ChatGPT для создания фальшивых историй и пропагандистских постов.
Выборы без хоккейных клюшек