Это мировоззрение можно считать слепой верой в искусственный интеллект, хотя перспектива его изобретения вызывает у многих в Кремниевой долине слепой ужас. Однако футурологи придерживаются другого мнения. Они считают технологии некоей сверхструктурой, в которой содержатся как все наши проблемы, так и все их решения. С этой точки зрения, единственной угрозой для технологий являются сами технологии, и, вероятно, поэтому многие в Кремниевой долине гораздо меньше задумываются о безудержных изменениях климата, чем о безудержном развитии искусственного интеллекта, – они способны воспринимать всерьез лишь те угрозы, которые они сами породили. Этот странный тип мировоззрения появился на свет из контркультурной среды Сан-Франциско и был описан Стюартом Брандом в библии покорителей природы «Каталог всей Земли»[99]
. Он может объяснить, почему создатели соцсетей так долго не осознавали угрозу своим платформам со стороны политики и почему, как предположил писатель-фантаст Тед Чан, страхи Кремниевой долины перед порабощением со стороны ИИ напоминают нелестный автопортрет, в котором технологические титаны узнают свой подход к бизнесу:Задумайтесь: кто преследует свои цели с маниакальным упорством, игнорируя возможные негативные последствия? (49) Кто готов уничтожать Землю ради увеличения своей доли рынка? Этот гипотетический искусственный интеллект делает то же самое, к чему стремится любой технологический стартап: к экспоненциальному росту и уничтожению конкурентов для достижения абсолютной монополии. Идея суперинтеллекта настолько расплывчата, что его можно представить в виде бесконечного количества персонажей, имеющих одинаковую смысловую ценность: доброго волшебника, решающего все мировые проблемы, или гениального математика, который все свое время проводит за доказательством теорем столь абстрактных, что люди даже не могут понять их суть. Но когда этот суперинтеллект пытаются представить обитатели Кремниевой долины, его спутником всегда становится ничем не сдерживаемый капитализм.
Порой бывает сложно удержать в голове больше одной экзистенциальной угрозы. Но у Ника Бострома, одного из пионеров философии искусственного интеллекта, все-таки получилось. В своей передовой статье 2002 года (50), посвященной систематизации «экзистенциальных рисков», он перечислил двадцать одну потенциальную катастрофу, в результате которых «неблагоприятный исход либо уничтожит всю разумную жизнь земного происхождения, либо в значительной мере ограничит ее потенциал навсегда».
Бостром – не одинокий интеллектуал-пессимист, а один из ведущих мыслителей, пытающихся на концептуальном уровне сформулировать угрозу нашему виду со стороны вышедшего из-под контроля ИИ. Но в свой перечень рисков он включил и угрозу изменения климата, отнеся ее к подкатегории «Взрывов» – сценариев, которые могут стать причиной «вымирания разумной жизни земного происхождения в результате относительно внезапного бедствия, произошедшего либо случайно, либо из-за преднамеренного акта разрушения». Это самая большая категория в его перечне; бок о бок с изменениями климата в ней стоят сценарии, чьи названия говорят сами за себя: «Плохо запрограммированный суперинтеллект» и «Мы живем в симуляции, которую скоро отключат».
В своей статье Бостром также рассматривает связанный с изменением климата риск «истощения ресурсов или экологической катастрофы». Эту угрозу он отнес к категории «Кризисов»: событий, после которых «потенциал человечества развиться в постчеловечество будет перманентно подорван, хотя сама человеческая жизнь в какой-то форме продолжит свое существование». Самым показательным риском в данной категории, пожалуй, является «Технологическая задержка»: «технологические трудности, связанные с переходом в постчеловечество, окажутся столь велики, что мы не сможем их преодолеть». Бостром определил еще две категории: «Вопли» – риски, при которых «человечество достигнет постчеловечества до определенной степени, но будет сильно ограничено», как в случае с «Трансцендентной загрузкой в облако» или «Дефектным суперинтеллектом» (не путать с «Плохо запрограммированным суперинтеллектом»); и «Всхлипы», при которых «постчеловеческая цивилизация появится, но будет развиваться в направлении, постепенно, но неотвратимо ведущем либо к полному исчезновению наших ценностей, либо к состоянию, где эти ценности осознаются лишь в мизерной части от того, чего можно было бы с ними достичь».