Далее в статье приводились семнадцать ошибочных обоснований, выдвигаемых «клиницистами». Среди них имелись сугубо эгоистические, продиктованные страхом потерять работу из-за пришествия умных машин. В других случаях приверженцам клиницизма не хватало образования для проверки статистических выводов. Некая группа заявляла, что не верит в формализм математики; еще одна рассуждала об актуарной «дегуманизации»; третья утверждала, что цель научного поиска заключается в понимании, а не в предсказании. Каковы бы ни были мотивы, говорилось в статье, совершенно аморально отрицать приоритет объективного перед субъективным, алгоритмического перед экспертным (личностным)[178].
Алгористическая точка зрения постепенно набирала силу. Энн Милгрэм занимала пост генерального прокурора штата Нью-Джерси с 2007 по 2010 год. Вступив в должность, она захотела узнать, кого арестовывают, осуждают и сажают в штате в тюрьмы – и за какие преступления. Как она сама призналась на лекции проекта TED Talk, ни данных, ни аналитики практически не было. Применяя статистическое прогнозирование, по словам Милгрэм, правоохранительные органы Кэмдена за время ее пребывания на посту прокурора сумели снизить количество убийств на 41 процент и спасти тридцать семь жизней, а общий уровень преступности снизился на 26 процентов. Присоединившись к фонду Арнольда[179] в качестве вице-президента по уголовному правосудию, она собрала команду ученых и статистиков для разработки инструментов оценки рисков; по сути, миссия команды заключалась в выявлении способов помещения «опасных людей» и освобождения тех, кто не представлял угрозы для общества. «Причина в том, как именно мы принимаем решения, – говорит Милгрэм. – Судьи руководствуются благими намерениями, когда выносят приговоры с поправкой на риск для общества, но беда в том, что они действуют субъективно. Они как бейсбольные скауты двадцатилетней давности, которые полагались на чутье и опыт при оценке потенциальных рисков и перспектив. Люди субъективны, а мы хорошо знаем, что бывает при субъективных решениях, – вероятность ошибки велика». Команда Милгрэм выявила более девятисот факторов риска, из которых девять оказались наиболее предсказуемыми. Самыми актуальными для исследователей были следующие вопросы: совершит ли человек новое преступление? прибегнет ли он к насилию? вернется ли он обратно на скамью подсудимых? Нам нужна, говорит Милгрэм, «объективная мера риска», которая должна отражаться в судейских решениях. Мы знаем, что алгоритмические статистические процессы эффективны. По ее словам, «вот почему «Гугл» стал «Гуглом» и почему в спортивных играх далеко не всё определяется размером кошелька владельца команды»[180].
Алгористы победили. Мы привыкли к мысли, что протоколы и данные могут и должны направлять нас в повседневных действиях, от напоминаний о том, куда мы, вероятно, хотим пойти дальше, до вероятного совершения преступления. К настоящему времени, если верить исследованиям, юридические, этические, формальные и экономические перспективы алгоритмизации выглядят квазибесконечными. Я хотел бы сосредоточиться на конкретной «песни сирен» для алгоритмов – на предполагаемой объективности.
Научная объективность имеет долгую историю. Это может показаться удивительным. Разве утверждение психологов из университета штата Миннесота, приведенное выше, справедливо? Разве объективность не сопровождала науку изначально? Стоит сделать небольшое отступление и поразмышлять над эпистемными[181] достоинствами, присущими труду ученого. Количественная оценка кажется полезной, как и прогнозирование, объяснение, унификация, точность, аккуратность, определенность и педагогическая полезность. В лучшем из всех возможных миров эти эпистемные добродетели будут вести нас в одном и том же направлении. Но они не обязательно совпадают в целях – не больше, чем наши этические добродетели. Поощрение людей в соответствии с их потребностями вполне может конфликтовать с поощрением по способностям. Равенство, справедливость, меритократия – то есть этика в широком смысле – все так или иначе чревато конфликтом соперничающих благ. Слишком часто мы забываем, что такой конфликт присутствует и в науке. Если разработать прибор максимальной чувствительности, его показания будут постоянно различаться, что сделает невозможным повторные замеры.