Пройдет еще десять лет, и в итоге мы действительно сможем стать на 95 % более автоматизированными, гиперсвязанными, виртуализированными, крайне эффективными – и гораздо менее человечными, чем можно представить себе сегодня. Возникнет общество, которое, не отдавая себе отчета, следует по экспоненциальному пути мегасдвигов (см. главу 3). Общество, которое не останавливается, чтобы оценить последствия для человеческих ценностей, убеждений и этики. Общество, которым управляют технологи, венчурные капиталисты, фондовые рынки и военные. Такое общество, скорее всего, вступит в истинно машинную эпоху.
Так что же такое этика? Если не ограничиваться простым ответом – то, как человек должен жить, – греческое слово «этос» означает обычай и привычку187
. Сегодня мы часто используем слово «этика» как синоним или условное обозначение для нравственности, ценностей, предположений, целей и убеждений. Главная задача этики состоит в том, чтобы задаваться вопросом, правильным ли является поступок или нет в каждом конкретном случае. Ваша этика определяет, что вам кажется правильным, и во многих случаях трудно объяснить, почему вы считаете именно так или иначе. Это, безусловно, одна из проблем, которые мешают согласовать даже самые элементарные этические правила для экспоненциальной эпохи, в которую мы вскоре вступим. Тем не менее дальше я попытаюсь сформулировать некоторые этические правила или принципы руководства развитием технологий.Сегодня самая неотложная задача состоит в том, чтобы осознать различие между нами и машинами и понять: мы не найдем в машинном мире наших идеалов – их надо искать внутри нас самих.
Биоэтик Лэрри Черчилль говорит, что «этика, понимаемая как способность критически осмыслять нравственные ценности и управлять нашими действиями с позиции таких ценностей, является общим потенциалом человечества»189
.Так, если этика означает способность критически осмыслять нравственные ценности и управлять нашими действиями в соответствии с ними и действительно является общим потенциалом человечества, то должны ли мы 1) не надеяться, что машины и компьютеры смогут по-настоящему понять их, или 2) пытаться кодировать какую-то базовую этику в программное обеспечение и научить машины хотя бы немного понимать и уважать их – это тема так называемой машинной этики?190
Это важный вопрос, на который мы здесь постараемся ответить.Что происходит с нашей этикой, когда машины становятся самообучающимися? Этические вопросы быстро возникают по ходу экспоненциального развития технологий: например, в случае беспилотных автомобилей – кто должен управлять автомобилем, если авария абсолютно неизбежна? Что касается роботов-помощников – что должен делать робот, если пациент отказывается принимать лекарство? Когда машины перестанут следовать предварительно запрограммированным алгоритмам решений и сами начнут узнавать что-то новое, будут ли они также узнавать то, что даже люди не могут выразить и кодифицировать?
Люди не так то просто принимают трудные решения, такие, например, как «если у этой пациентки есть 35 %-ная вероятность возникновения опасной для жизни медицинской проблемы, то она должна принимать эти лекарства, даже если потребуется сила». Поэтому, конечно, люди в подобных ситуациях каждый раз ведут себя по-разному и порой ошибаются. Позволительно ли это было бы для робота, и приемлемо было бы для нас такое его отношение?
В своем рассказе «Хоровод» (1942) писатель-фантаст Айзек Азимов[108]
сформулировал три закона робототехники, не слишком популярных в наши дни:1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред.
2. Робот должен повиноваться всем приказам, которые дает человек, кроме тех случаев, когда эти приказы противоречат Первому закону.
3. Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму законам.
Будут ли эти законы и далее актуальными, или утратят свое значение вместе с появлением самообучающихся машин? Может быть, робот-помощник должен будет причинить вред человеку (хоть и незначительный), потому что другой, имеющий больше полномочий человек (например врач) приказал ему обеспечить прием лекарств. Как робот узнает, с чего начать и в какой момент остановиться? Будет ли программа блокировать холодильник, если мы будем придерживаться строгой диеты? Отключит ли она телефон и интернет, чтобы мы не заказывали пиццу? Будет ли наблюдать за туалетом, чтобы выявить признаки незапланированного потребления?
Брэдли Аллан Фиске , Брэдли Аллен Фиске
Биографии и Мемуары / Публицистика / Военная история / Зарубежная образовательная литература, зарубежная прикладная, научно-популярная литература / Исторические приключения / Военное дело: прочее / Образование и наука / Документальное