Стремительное развитие ИИ, независимо от того, на какой горючей смеси ажиотажа и реального прогресса оно разгоняется, вынуждает нас снова и снова задумываться о его этической стороне. Немало опасений связано с социоэкономическими последствиями внедрения таких технологий ближайшего будущего, как самоуправляемые автомобили и замена работников предприятий автоматами, что неизбежно нарушит привычный нам уклад[382]
. Нас закономерно тревожит делегирование принятия решений искусственным системам, внутренние процессы которых подвержены всевозможным искажениям и сбоям и при этом недостаточно прозрачны не только для пользователя, но и для разработчика. Самый острый вопрос в этой категории: какие ужасы нас ждут, если доверить искусственному интеллекту контроль над ядерным оружием или опорной сетью интернета?Еще одна немаловажная этическая проблема — психологические и поведенческие последствия внедрения искусственного интеллекта и машинного обучения. Вторжение дипфейков в личное пространство, модификация поведения прогнозными алгоритмами, искажение убеждений в отфильтрованных информационных пузырях и герметичных камерах соцсетей — это лишь некоторые из множества сил, раздирающих ткань нашего общества. Потакая разгулу этих сил, мы добровольно уступаем свою идентичность и независимость безликим «дата-корпорациям» в ходе безграничного и бесконтрольного общемирового эксперимента[383]
.На этом фоне обсуждение сознания у машин с точки зрения этики может казаться избыточным и слишком головоломным. Но это лишь видимость. Обсуждения необходимы, даже если у обсуждаемых машин сознания нет (пока). Когда тест Гарленда будет пройден, нам предстоит жить в одном мире с существами, которых мы будем воспринимать как обладающих субъективной внутренней жизнью, даже зная или веря, что она у них отсутствует. Психологические и поведенческие последствия этого соседства трудно спрогнозировать. Один из вероятных вариантов: мы научимся проводить границу между ощущениями и требуемыми поступками и нам будет представляться вполне естественным любить и окружать заботой человека, но не робота, даже если обладателями сознания покажутся оба. Как это отразится на психологии каждого отдельного человека, пока неясно.
В телесериале «Мир Дикого Запада» человекоподобных роботов специально производят как «груши для битья» — чтобы человек вымещал на них свои самые низменные инстинкты, издевался, убивал и насиловал. Можно ли, истязая робота, чувствовать в нем сознание, понимать, что это сознание лишь иллюзия, и сохранить при этом рассудок? Для нашего нынешнего склада ума и психики это будет откровенной социопатией.
Другой вероятный вариант состоит в том, что наш привычный круг морально-нравственных интересов исказит антропоцентрическая склонность больше сочувствовать существам, с которыми мы ощущаем большее сходство. В этом случае представители следующего поколения наших близнецов-геминоидов, возможно, станут нам ближе и дороже, чем другие люди, не говоря уже о других животных.
Конечно, будущее не обязательно должно оказываться антиутопией. Но, учитывая набирающую обороты гонку прогресса и ажиотажа в области ИИ, замешанная на психологии этика тоже должна будет сказать свое слово. Запустить новую технологию и сложа руки смотреть, что будет дальше, попросту неправильно. Начнем с того, что нам не стоит слепо и бездумно добиваться стандартной цели ИИ — воспроизвести, а затем превзойти человеческий интеллект. Как справедливо заметил Дэниел Деннет, мы создаем «разумные инструменты, а не коллег»[384]
, и об этой разнице нельзя забывать.Перейдем теперь к варианту, при котором машины и вправду обретут сознание. Если мы действительно вольно или невольно внедрим в мир новые разновидности субъективного опыта, нам придется иметь дело с нравственно-этическим кризисом беспрецедентных масштабов. К статусу обладателя сознания непременно прилагается нравственный статус. Мы должны будем минимизировать потенциальные страдания сознательных машин точно так же, как мы должны минимизировать страдания живых существ, а нам и это не особенно удается. А с этими гипотетическими искусственно чувствующими деятелями возникает дополнительная трудность: мы можем даже не догадываться, как именно они ощущают свою сознательность. Представьте себе систему, испытывающую совершенно неведомые нам страдания, для которых у нас, людей, нет ни аналогов, ни понятий, ни инстинктов, позволяющих их распознать. Представьте себе систему, для которой в принципе не существует такого явления, как разница между положительными и отрицательными ощущениями, у нее просто соответствующего феноменологического измерения нет. Сложность в данном случае заключается в том, что мы даже не подозреваем, какие этические проблемы могут в связи с этим возникнуть.
Даже если до появления искусственного сознания еще по-прежнему далеко, об этой перспективе все равно нужно задуматься уже сегодня. И хотя мы не знаем, чего потребует создание сознательной машины, мы не знаем и другого — чего оно не потребует.