С другой стороны, чем грозят для такого робота-судьи программные глюки или атаки хакеров? И от того и от другого уже пострадали машины автоматизированного голосования, а когда на карту поставлены годы за решеткой или миллионы на банковском счету, цена кибератаки заметно повышается. Даже если мы уверены, что искусственный интеллект использует правильный законодательный алгоритм, почувствуем ли мы достаточную уверенность в логике его использования, чтобы уважать выносимые решения? Эта проблема усугубляется быстрым прогрессом в развитии нейронных сетей, которые часто превосходят довольно очевидные традиционные алгоритмы искусственного интеллекта, за что приходится расплачиваться их прозрачностью. Если ответчик хочет знать, почему ему вынесли именно такой приговор, он должен иметь право на лучший ответ, чем какой-нибудь такой: «Мы натренировали нашу систему на большом количестве данных, и она теперь приняла такое решение». Кроме того, недавние исследования показали, что если вы тренируете нейронные системы глубокого обучения на большом количестве данных о заключенных, они могут предсказывать, кто из этих заключенных с большой вероятностью вернется к своей преступной деятельности (и кому из них поэтому должно быть отказано в условно-досрочном освобождении), лучше, чем судья-человек. Но что делать, если эта система обнаружит, что склонность к рецидивам статистически связана с полом или расовой принадлежностью заключенного, — будет ли это считаться проявлением сексизма или расизма робота-судьи, который, следовательно, нуждается в перепрограммировании? Действительно, исследование 2016 года показывает, что программное обеспечение, используемое в Соединенных Штатах для предсказание рецидивизма, предвзято настроено против афроамериканцев и поддерживало несправедливые приговоры{42}. Это важные вопросы, которые нам надо поставить и обсудить, чтобы сохранить возможность эффективно использовать искусственный интеллект. У нас нет необходимости принимать решение из разряда «все или ничего» в отношении роботов-судей, но решать, до каких пределов и с какой скоростью мы хотим вводить искусственный интеллект в нашу правовую систему, нам придется. Мы хотим, чтобы завтра люди, выполняющие работу судей, получили себе в помощь системы информационной поддержки принятия решений на основе искусственного интеллекта, как ее получат врачи? Мы хотим идти дальше и дать роботам-судьям возможность самостоятельно принимать решения, которые могут быть обжалованы в суде, состоящем только из людей, или же мы хотим пойти до конца и дать машинам право выносить не подлежащие обжалованию приговоры, даже если речь о высшей мере наказания?
Пока мы обсуждали только