Только спустя годы я понял, что моим противником в этой игре был не всемогущий Бог, а система человеческого мышления. Кальвинистский акцент на инаковости Бога, его возвышенности, заслонял тот факт, что эта доктрина была создана и увековечена людьми и окрашена их субъективными интересами. Не случайно новый кальвинизм с его карающим, мужественным Богом процветал в первые годы тысячелетия, когда страна в целом поддалась воинственности и регрессивным героическим мифам. Когда я вспоминаю разглагольствования моего профессора против терапевтического деизма и феминизированного Христа, я не могу не видеть искажения политики эпохи Буша, в которой обещания сострадательного консерватизма рухнули в беззаконный вигилантизм "шока и трепета".
Чем больше мы стараемся избавить мир от нашего образа, тем больше окрашиваем его человеческими недостатками и фантазиями. Чем больше мы настаиваем на исключении себя и своих интересов из уравнения, тем больше мы получаем всемогущих систем, которые кишат человеческими предрассудками и предубеждениями. Это парадокс, на который Арендт обратила внимание в своем эссе об освоении космоса, парадокс, который она позаимствовала у Вернера Гейзенберга. Гейзенберг утверждал, что квантовая механика усложнила наши поиски некой "истинной реальности", которая скрывается за воспринимаемым нами миром. Когда человек пытается выйти за пределы своей собственной точки зрения, утверждал он, он неизбежно "сталкивается с самим собой в одиночестве". Арендт распространила эту идею на современные технологии. Мы создаем инструменты, которые должны быть исключительно объективными. Но поскольку эти инструменты сделаны по нашему образу и подобию и созданы в определенном историческом контексте, современный технологический субъект, подобно человеку Гейзенберга, "тем реже встречается с чем-либо, кроме себя и рукотворных вещей, чем сильнее он желает исключить все антропоцентрические соображения из своей встречи с окружающим его нечеловеческим миром". Мы все время пытаемся выйти за пределы себя и своих интересов, но чем больше мир становится населенным нашими инструментами и технологиями, тем маловероятнее, "что человек встретит в окружающем его мире что-то, что... в конечном счете, не является им самим в другом обличье".
В наши дни нетрудно найти примеры технологий, которые содержат нас самих "в другом обличье". Хотя самые впечатляющие технологии машинного обучения часто описываются как "инопланетные" и не похожие на нас, они подвержены ошибкам, которые слишком похожи на человеческие. Поскольку алгоритмы опираются на исторические данные - используют информацию о прошлом, чтобы сделать прогноз на будущее, - их решения часто отражают предубеждения и предрассудки, которые уже давно окрасили нашу социальную и политическую жизнь. Алгоритмы Google показывают женщинам больше объявлений о низкооплачиваемой работе, чем мужчинам. Было установлено, что алгоритмы доставки Amazon в течение одного дня обходят стороной черные районы. В отчете ProPublica было обнаружено, что система оценки вынесения приговора COMPAS с гораздо большей вероятностью назначает чернокожим обвиняемым более высокие показатели рецидивизма, чем белым обвиняемым. Эти системы не нацелены на конкретные расы или полы и даже не учитывают эти факторы. Но они часто ориентируются на другую информацию - почтовые индексы, доходы, предыдущие встречи с полицией, - которая несет в себе историческое неравенство. Эти решения, принимаемые машиной, в конечном итоге усиливают существующее социальное неравенство, создавая петлю обратной связи, которая еще больше затрудняет преодоление давней истории структурного расизма и человеческих предрассудков в нашей культуре.