Алгоритмы невидимы по определению. Но как правило, мы можем почувствовать их присутствие – ощутить, что где-то на глубине мы все-таки взаимодействуем с машиной. Именно это сообщает алгоритму Facebook его силу. Многие пользователи – 60 % согласно лучшим исследованиям – ни в какой мере не подозревают о его существовании. Но даже если они и догадываются, это не имеет значения. Он непрозрачен до предела. Когда компания признает его существование перед журналистами, она умудряется непрозрачными описаниями затуманить предмет еще больше. Например, мы знаем, что когда-то алгоритм назывался EdgeRank, но Facebook этот термин больше не использует. Быть безымянным для этого алгоритма нормально. Он разросся до состояния практически непроницаемых джунглей. Чтобы определить, что увидят пользователи, он интерпретирует свыше ста тысяч так называемых «сигналов». Некоторые сигналы относятся ко всем пользователям Facebook, некоторые определяют привычки конкретного пользователя и его друзей. Может быть, Facebook сам уже не до конца понимает работу своих алгоритмов: код, все шестьдесят миллионов строк, представляет собой палимпсест, на который инженеры записывают новые команды слой за слоем. (Это не является чем-то присущим исключительно Facebook. Джон Кляйнберг, специалист по информатике из Корнеллского университета, был соавтором статьи, где говорилось: «Мы, вероятно впервые в истории, создали машины, работу которых не понимаем сами… На глубинном уровне мы не понимаем, каким образом они производят наблюдаемое нами поведение. Именно в этом состоит суть их непонятности». Более всего поразительно, что «мы» в этой цитате относится к авторам кода).
В качестве аналога этого алгоритма полезно представить себе один из первых компьютеров – с нервно мигающими лампочками и длинными рядами рукояток на передней панели. Чтобы регулировать работу алгоритма, инженеры постоянно вносят небольшие изменения, поворачивая рукоятку то здесь, то там на один-два щелчка. Малейшим сдвигом воображаемого колесика Facebook меняет то, что пользователи читают и видят. Он может заполнить всю ленту фотографиями, сделанными друзьями, может понизить посты с саморекламой, исключить то, что считает фальшивкой, может отдать предпочтение текстам или видео или же обратить внимание на статьи из New York Times, BuzzFeed и тому подобных изданий. Взяв мелодраматический тон, можно было бы сказать, что Facebook постоянно определяет нашу картину мира: регулирует качество новостей и мнений, пропускаемых через фильтр, меняет качество предлагаемых нам материалов из области политики и культуры, чтобы удержать наше внимание еще немного.
Но каким же образом инженеры определяют, какое именно колесико повернуть и на сколько? Существует целая дисциплина, «наука о данных»[40], цель которой – указать пути написания и совершенствования алгоритмов. В Facebook есть целое подразделение, куда людей переманивали из академических кругов, и его задача – ставить эксперименты на пользователях. Это предел мечтаний статистика: одни из самых крупных за всю историю человечества наборы данных, возможность экспериментировать на математически значимых выборках. Когда Кэмерон Марлоу, бывший глава этого подразделения, описывал открывшиеся ему возможности, он просто светился от удовольствия. «Впервые, – говорил он, – у нас есть микроскоп, не только позволяющий исследовать социальное поведение с очень высокой избирательностью, но и экспериментировать на миллионах пользователей».
Facebook предпочитает хвалиться своими экспериментами в принципе, а не сообщать их подробности. Но примеры, утекшие за пределы лабораторий, существуют. Так Facebook решила выяснить, заразны ли эмоции. В рамках этого эксперимента компания пыталась манипулировать эмоциональным состоянием пользователей: для этого она удаляла из ленты одной группы пользователей слова с позитивной окраской, а из ленты другой – с негативной. Опыт показал, что обе группы писали посты, отражавшие настроение соответствующей ленты. Этот эксперимент был единодушно осужден как бесчеловечный, но он не выбивался из череды остальных. Один из членов группы, занимающейся наукой о данных, признавался: «Эксперимент мог поставить любой наш сотрудник. Они все время пытаются изменить человеческое поведение».
Нет никаких сомнений в том, что Facebook сосредоточила в своих руках огромную эмоциональную и психологическую власть. По крайней мере у самой компании сомнений в этом нет. Facebook хвасталась, как увеличила в одном случае явку на выборы, а в другом – донорство органов, чуть усилив воздействие, вызывающее «добродетельное» поведение. Она даже публиковала свои результаты в рецензируемых журналах: «Возможно, что увеличение явки избирателей на 0,6 % между 2006 и 2010 гг. было вызвано одним сообщением на Facebook». Ни одна другая компания не хвалилась так открыто своим влиянием на механизмы демократии, и по понятным причинам. Это слишком большая власть, чтобы доверить ее корпорации.