Оказалось, что на самом деле статью написал человек, который, видимо, был болельщиком команды, потерпевшей столь унизительное поражение: сообщение о достижении противника он спрятал в предпоследнем абзаце. Этот случай заинтересовал разработчиков из компании Narrative Science, и они взяли данные игры, чтобы посмотреть, что напишет о ней их алгоритм. Вот начало статьи, которую он сгенерировал, получив в свое распоряжение лишь численные результаты матча:
Вторник был отличным днем для У. Робертса: молодой питчер провел на стадионе Дэвенпорт-Филд идеальную игру, что позволило Виргинии победить Университет Джорджа Вашингтона со счетом 2: 0.
К домашней базе выходили 27 «колонистов», и виргинский питчер обыграл их всех, не потеряв ни одной подачи. Совершая этот грандиозный подвиг, он выбил из игры по страйк-ауту 10 отбивающих. Последним в этом матче был удален после подачи Робертса Райан Томас, допустивший граунд-аут[124].
А алгоритмы обыграли журналиста со счетом 1: 0.
Но речь идет не только о реальном спорте: многие все больше увлекаются воображаемыми командами, которые они сами и формируют. В Соединенных Штатах и Канаде есть почти 60 млн человек, которые подбирают несуществующие команды из игроков Национальной футбольной лиги и соревнуются со своими друзьями. В среднем они тратят на работу со своими командами по 29 часов в год. Компания Yahoo начала использовать алгоритм Wordsmith для еженедельного выпуска персонализированных новостей о вымышленных командах на основе данных НФЛ. Люди никак не смогли бы создавать миллионы выпусков новостей, рассылаемых каждую неделю для удовлетворения аппетита игроков, которым не терпится узнать, как идут дела у их команд.
Разумеется, в том, что новости нам рассказывают алгоритмы, есть и свой зловещий аспект. Как многократно напоминает нам исторический опыт, повествование – мощное политическое орудие. Недавние исследования показали, что данные и факты не слишком сильно влияют на мнение людей. Только данные и факты, вплетенные в повествование, обладают способностью убеждать и изменять мнения. Того, кто убежден, что прививки опасны для детей, редко убеждают статистические данные о том, как вакцины останавливают распространение заболеваний. Но если рассказать ему историю о человеке, заболевшем корью или оспой, и дополнить ее данными статистики, вполне вероятно, что это заставит его изменить свое мнение. Как говорит в книге «Из-под обломков» (Out of the Wreckage: A New Politics in the Age of Crisis, 2017) Джордж Монбио, «Вытеснить историю может только история».
Тот факт, что истории можно использовать для изменения мнений, безжалостно эксплуатируют компании наподобие Cambridge Analytica. Собрав личные данные 87 млн пользователей фейсбука при помощи приложения «Вот твоя цифровая жизнь» (This is your digital life), эта фирма смогла составить психологические профили, по которым после этого можно было подобрать новостные сообщения, позволяющие повлиять на то, как голосуют эти люди. Сначала алгоритмы распределяли новости случайным образом, но постепенно научились определять, какие из них привлекают переходы по ссылкам.
Вскоре они обнаружили, что молодые, консервативно настроенные белые американцы положительно реагируют на фразы вроде «осушить болото» или идею строительства стены для защиты от нелегальных иммигрантов. Тогда алгоритм начал заполнять их ленту фейсбука историями, специально созданными алгоритмами же для любителей болот и стен. При этом он целенаправленно подбрасывал эти истории тем, чью точку зрения они с большей вероятностью могли изменить, и не показывал тем, на кого они, скорее всего, не повлияли бы.
Когда стало известно, что компании Cambridge Analytica удалось осуществить такие манипуляции избирателями, общественное возмущение привело к краху компании. В этом можно увидеть иронию: фирму погубил тот самый фактор, на который она ставила, – способность новостного повествования влиять на реальные события.
Компания Cambridge Analytica закрылась, но по-прежнему существует множество других, которые продолжают применять глубинный анализ данных для обеспечения стратегических преимуществ всем тем, кто готов им платить. Если мы хотим хотя бы в малой степени управлять собственной жизнью, важно понимать, как такие алгоритмы могут помыкать нашими эмоциями и политическими взглядами и как каждый из них, исходя из одной и той же информации, может сплести совершенно разные байки, идеально подпитывающие наши личные пристрастия и мнения.