Недавно проблема вагонетки снова всплыла в прессе при обсуждении беспилотных автомобилей[173]
, и вопрос о том, как следует программировать автономный автомобиль для решения таких проблем, вышел на первый план в дискуссиях об этике ИИ. Многие философы ИИ отмечают, что проблема вагонетки, в которой у водителя есть лишь два ужасных варианта, сама по себе весьма надуманна, а потому ни один водитель никогда не столкнется с ней в реальном мире. И все же она стала своеобразным символом, к которому обращаются всякий раз, когда встает вопрос, как следует программировать беспилотные автомобили, чтобы они смогли самостоятельно принимать моральные решения.В 2016 году трое исследователей опубликовали результаты опросов нескольких сотен людей, которым предлагали оценить моральную составляющую различных действий беспилотных автомобилей в сценариях, напоминающих проблему вагонетки. В одном опросе 76 % респондентов ответили, что с точки зрения морали беспилотному автомобилю предпочтительно пожертвовать одним пассажиром, чтобы спасти десять пешеходов. Однако, когда людей спросили, купят ли они беспилотный автомобиль, запрограммированный жертвовать своими пассажирами, чтобы спасать гораздо большее число пешеходов, респонденты в подавляющем большинстве ответили, что не стали бы покупать такой автомобиль[174]
. “Мы обнаружили, что участники шести исследований, проведенныхНекоторые исследователи этики ИИ предположили, что нам не стоит пытаться непосредственно запрограммировать машины на следование правилам морали, а лучше позволить машинам самостоятельно усваивать моральные ценности, наблюдая за поведением людей[176]
. Однако самостоятельное обучение наследует все проблемы машинного обучения, которые я описала в предыдущей главе.На мой взгляд, прогресс в наделении компьютеров моральным интеллектом нельзя отделить от прогресса в наделении их другими типами интеллекта, ведь истинная сложность заключается в создании машин, действительно
Пока в этой книге мы увидели, как глубокие нейронные сети, обученные на огромных наборах данных, могут соперничать с людьми в выполнении конкретных зрительных задач. Мы также увидели некоторые слабости этих сетей, включая их зависимость от колоссальных объемов размеченных людьми данных и склонность ошибаться совсем не так, как человек. Как нам создать систему ИИ, которая действительно учится самостоятельно – и которая станет надежнее, потому что, как и люди, сможет судить о текущей ситуации и планировать будущее? В следующей части книги я опишу, как исследователи ИИ используют шахматы, го и даже видеоигры
Часть III
Обучение игре
Глава 8
Награды для роботов
Собирая материал для своей книги о дрессировщиках экзотических животных, журналистка Эми Сазерленд узнала, что основной метод их работы до нелепого прост: “поощрять хорошее поведение и игнорировать плохое”. В колонке “Современная любовь” в