Хотя такой способ принятия решений может показаться нам чуждым, у него, безусловно, есть потенциальные преимущества. При принятии решения, как правило, целесообразно учитывать все значимые данные, а не только один или два существенных факта. Конечно, есть много поводов для споров о том, кто определяет значимость информации. Кто решает, следует ли считать релевантными такие вещи, как модель смартфона или цвет кожи, при оформлении кредита? Но как бы мы ни определяли релевантность, способность учитывать больше данных, скорее всего, будет преимуществом. Ведь проблема многих человеческих предрассудков заключается в том, что они фокусируются только на одной или двух точках данных - цвете кожи, инвалидности или половой принадлежности - и игнорируют другую информацию. Банки и другие учреждения все чаще полагаются на алгоритмы при принятии решений именно потому, что алгоритмы могут учитывать гораздо больше данных, чем человек.
Но когда дело доходит до объяснений, это создает потенциально непреодолимое препятствие. Как человеческий разум может проанализировать и оценить решение, принятое на основе такого количества точек данных? Мы можем считать, что Верховный суд штата Висконсин должен был заставить компанию Northpointe раскрыть информацию о том, как алгоритм КОМПАС решил, что Эрик Лумис относится к группе повышенного риска. Но если бы все данные были раскрыты, смог бы Лумис или суд разобраться в них?
Дело не только в том, что нам нужно учитывать множество точек данных. Возможно, самое главное - мы не можем понять, как алгоритмы находят закономерности в данных и принимают решения о распределении баллов. Даже если мы знаем, что банковский алгоритм снимает определенное количество баллов с людей, которые допускают, чтобы заряд батареи их смартфонов опускался ниже 25 процентов, как мы можем оценить, справедливо ли это? Алгоритм не получал это правило от человека; он пришел к такому выводу, обнаружив закономерность в миллионах предыдущих кредитных заявок. Может ли отдельный клиент-человек просмотреть все эти данные и оценить, действительно ли эта закономерность надежна и беспристрастна?
Однако в этом облаке цифр есть и положительная сторона. В то время как неспециалисты могут быть не в состоянии проверить сложные алгоритмы, команда экспертов с помощью собственных инструментов искусственного интеллекта потенциально может оценить справедливость алгоритмических решений даже более надежно, чем кто-либо может оценить справедливость человеческих решений. В конце концов, хотя может показаться, что человеческие решения основываются только на тех нескольких точках данных, которые мы осознаем, на самом деле на наши решения подсознательно влияют тысячи дополнительных точек данных. Не зная об этих подсознательных процессах, когда мы обдумываем свои решения или объясняем их, мы часто используем одномоментные рационализации post hoc того, что происходит на самом деле, когда миллиарды нейронов взаимодействуют внутри нашего мозга. Соответственно, если человеческий судья приговаривает нас к шести годам тюрьмы, как можем мы - или судья - быть уверены, что решение было сформировано только из справедливых соображений, а не из-за подсознательных расовых предубеждений или того, что судья был голоден?
В случае с судьями из плоти и крови эта проблема не может быть решена, по крайней мере, с нашими нынешними знаниями о биологии. В отличие от этого, когда решение принимает алгоритм, мы в принципе можем знать каждый из многочисленных соображений алгоритма и точный вес, придаваемый каждому из них. Так, несколько групп экспертов - от Министерства юстиции США до некоммерческого новостного агентства ProPublica - разбирали алгоритм КОМПАС, чтобы оценить его потенциальную предвзятость.46 Такие группы могут использовать не только коллективные усилия многих людей, но и мощь компьютеров. Подобно тому, как часто лучше подставить вора, чтобы поймать вора, так и мы можем использовать один алгоритм для проверки другого.
В связи с этим возникает вопрос, как мы можем быть уверены в надежности самого алгоритма проверки. В конечном итоге чисто технологического решения этой рекурсивной проблемы не существует. Независимо от того, какую технологию мы разработаем, нам придется поддерживать бюрократические институты, которые будут проверять алгоритмы и давать или отказывать им в одобрении. Такие институты будут объединять возможности людей и компьютеров, чтобы убедиться, что новые алгоритмические инструменты безопасны и справедливы. Без таких институтов, даже если мы примем законы, предоставляющие людям право на объяснение, и даже если мы введем правила против компьютерной предвзятости, кто сможет обеспечить соблюдение этих законов и правил?
NOSEDIVE