Иногда алгоритм отражает бессознательное своих создателей. Позвольте мне прибегнуть к экстремальному примеру. Профессор Гарвардского университета Латания Суини предприняла исследование и пришла к выводу, что Google выделял пользователей с афроамериканскими именами и показывал им рекламу, предполагающую, что они нуждаются в снятии судимости. Google не сообщает, отчего происходит подобное. Их алгоритм – один из наиболее тщательно охраняемых секретов. Тем не менее мы знаем, что они построили свою поисковую машину таким образом, чтобы она отражала их представления о мире. Инженеры Google предполагали, что популярность веб-сайта явно отражает его полезность; поисковая машина старается понижать приоритет порнографии, но не, скажем, сторонников еврейского заговора; она также полагает, что пользователи выиграют от новых материалов, а не от старого доброго контента. Все это разумные предпочтения и, возможно, оправданные с точки зрения бизнеса, но это предпочтения, а не наука.
Как и в экономике, в информатике есть предпочтительные модели и неявные предположения об устройстве мира. Когда программистов обучают алгоритмическому мышлению, их учат ценить эффективность превыше всего. Это полностью понятно: алгоритм с большим количеством шагов затормозит машину, а подобная машина бесполезна. Тем не менее эффективность тоже имеет цену. Ускоряя алгоритм, мы обязательно срезаем углы, обобщаем задачу.
Алгоритмы могут быть великолепным продуктом логического мышления, не говоря уже о том, что они делают нашу жизнь удобнее и способны удовлетворять наше любопытство. Они находят копию давно забытой книги XIX века за несколько миллисекунд, связывают нас с давно забытыми друзьями по начальной школе, дают магазинам возможность доставлять покупки к нашему порогу в мгновение ока. Скоро они поведут беспилотные автомобили и смогут находить раковые опухоли внутри нас. Однако, чтобы делать все это, алгоритмы безостановочно вытесняют нас. Они принимают решения о нас и за нас. Проблема в том, что, перепоручая мышление машинам, мы на деле перепоручаем его компаниям, которым принадлежат машины.
Марк Цукерберг притворно представляется критиком алгоритмов, хоть и из их собственного лагеря. Таким образом он отделяет себя от соперников из Google. Там, в цехах Ларри Пейджа, алгоритм – король, холодный и бессердечный владыка. Там нет ни следа жизни и практически нет понимания человека, набирающего поисковый запрос. Facebook создает льстящий своему собственному самолюбию автопортрет, на котором он предстает оазисом в этом автоматизированном и все более атомизированном мире: «Какой бы продукт вы ни использовали, всегда лучше делать это с друзьями».
Говорит он при этом о ленте новостей Facebook. Вот краткое объяснение для той небольшой части человечества, которая, по-видимому, еще сопротивляется: лента новостей содержит в обратном хронологическом порядке все обновления статусов, статьи и фотографии, опубликованные вашими друзьями в Facebook. Лента новостей должна нравиться, но при этом решать одну из фундаментальных проблем современности: нашу неспособность справиться с постоянно растущим, вечно стоящим перед нашими глазами массивом информации. Кто, говорит теория, лучше посоветует нам, что читать и смотреть, чем наши друзья? Цукерберг хвастался, что лента новостей превратила Facebook в «газету, настроенную на вкусы конкретного читателя».
К сожалению, наши друзья полезны нам в качестве информационных фильтров только до определенной степени. Оказывается, они публикуют многое. Если бы мы просто читали все их рассуждения и проходили бы по ссылкам на рекомендуемые статьи, мы были бы перегружены информацией почти так же, как раньше. Поэтому Facebook решает за нас, что нам следует читать. Алгоритмы компании фильтруют тысячи записей, потенциально доступных нам. Затем решают, что мы могли бы захотеть прочесть в первую очередь из отобранных ими нескольких десятков источников.