На самом деле общественность все больше обеспокоена проблемой предвзятости алгоритмов, хотя многие из предлагаемых решений только запутывают моральные параметры дискуссии. В большинстве случаев компаниям предлагается сделать свое программное обеспечение менее склонным к ошибкам или использовать наборы данных, более точно отражающие население, что особенно подчеркивается в разговорах о технологиях распознавания лиц, которые печально известны тем, что неверно идентифицируют черные и коричневые лица, что привело в 2020 году к первому ложному аресту, произведенному с помощью алгоритма. История Роберта Джулиана-Борчака Уильямса, чернокожего мужчины из Детройта, который был арестован после того, как программа распознавания лиц ошибочно идентифицировала его с изображением магазинного вора, заснятого камерами наблюдения, была показана во многих национальных новостных изданиях и вызвала бесконечные стенания экспертов в области права, требующих улучшения алгоритмов. Но во многих случаях такие призывы к совершенствованию служат лишь лицензией на расширение технологий наблюдения. Как отмечает Ванг в книге "Карцеральный капитализм", само существование систем наблюдения и машинного обучения в определенных местах является признаком того, кого выделяют для охраны порядка, и само по себе является частью системной предвзятости (преступления, совершенные на Уолл-стрит или в преимущественно белых пригородах, не дают данных, потому что за этими районами не следят в первую очередь). Создание более совершенных и эффективных алгоритмов неизбежно требует большего количества данных, поэтому настойчивое стремление к совершенствованию технологий часто "оправдывает слежку и расширение полицейских и карцеральных операций, которые генерируют данные". Эту точку зрения подтверждает Хамид Хан, давний общественный организатор, который сыграл важную роль в том, чтобы заставить Департамент полиции Лос-Анджелеса прекратить использование алгоритмов предиктивной полиции в 2020 году. Хан утверждает, что государственная политика, ориентированная на прозрачность, подотчетность и надзор, слишком часто становится толчком для "ползучей миссии". "Мы боремся не за беспристрастный алгоритм, потому что мы не верим, что даже с математической точки зрения может существовать беспристрастный алгоритм для полицейской работы", - сказал Хан.
Конечно, гораздо проще свалить вину за несправедливость на ошибочные алгоритмы, чем осмысленно бороться с тем, что они рассказывают о нас и нашем обществе. Во многих случаях наши отражения, которые создают эти машины, глубоко нелестны. В качестве примера можно вспомнить Тэй, чат-бота с искусственным интеллектом, выпущенного компанией Microsoft в 2016 году, который был создан для общения с людьми в Twitter и учился на основе своих действий с пользователями. Уже через шестнадцать часов она начала изрыгать расистские и сексистские оскорбления, отрицать Холокост и заявлять о поддержке Гитлера. Еще более показательной была нейросеть, обученная на изображениях прошлых президентов США, которая летом 2016 года предсказала победу Дональда Трампа на предстоящих выборах. В течение нескольких месяцев этот факт приводился в качестве примера того, как легко ИИ может ввести в заблуждение. Как отметил один из исследователей Google, за несколько дней до выборов, поскольку в наборе данных не было женщин-президентов, "ИИ не смог сделать вывод, что пол не является релевантной характеристикой для модели". Учитывая исход тех выборов и то, как часто разговоры о них возвращались к роли женоненавистничества и двойных стандартов, можно утверждать, что алгоритм был прав, предполагая, что пол действительно является релевантной характеристикой. Машина знала нас лучше, чем мы сами.
Для Арендт проблема заключалась не в том, что мы продолжали создавать вещи по своему образу и подобию, а в том, что мы наделяли эти артефакты некой трансцендентной силой. Вместо того чтобы сосредоточиться на том, как использовать науку и технологии для улучшения условий жизни человека, мы стали верить, что наши инструменты могут соединить нас с высшими истинами. Желание отправить человека в космос стало для нее метафорой этой мечты о научной трансцендентности. Она пыталась представить себе, как выглядит Земля и земная человеческая деятельность, находясь так далеко за ее поверхностью: