Дерек Парфит (2017b, p. 436): “Важнее всего сейчас то, как мы работаем с рисками, которые ставят под угрозу существование человечества. Мы сами создаем некоторые из этих рисков и ищем способы работать с ними, а также с другими рисками. Если мы снизим эти риски и человечество проживет еще несколько столетий, наши потомки или преемники смогут положить этим рискам конец, расселившись по нашей галактике”.
Илон Маск (Musk, 2018): “…важно основать базу, работающую на самообеспечении. В идеале – на Марсе, потому что Марс находится достаточно далеко от Земли, а следовательно, в случае войны на Земле база на Марсе может уцелеть с большей вероятностью, чем лунная база”.
Карл Саган (Sagan, 1994, p. 371; перевод О. Сивченко) намекнул на это, сказав: “Из множества дискредитированных проявлений самодовольного шовинизма лишь одно пока не сдает позиций, единственное человеческое качество, кажущееся уникальным: по причине наших собственных действий или бездействия, а также злоупотребления технологиями мы живем в экстраординарное время – по крайней мере, в масштабах Земли: впервые биологический вид способен сам себя уничтожить. Но в это самое время, могли бы отметить вы, наш вид оказался в силах отправиться к другим планетам и звездам. Две эпохи, наступившие благодаря одним и тем же технологиям, совпали: несколько веков в 4,5 млрд лет истории планеты. Если бы вас случайным образом забросили на Землю в любой момент прошлого (или будущего), шансы оказаться именно в этой эпохе составили бы менее одного на десять миллионов. Наш долг перед будущим высок именно сейчас”.
Но далее он предлагает нечто напоминающее экзистенциальную безопасность, о которой говорю я (1994, p. 371): “Они мигом создают инструменты для изменения миров. Некоторые планетарные цивилизации способны спланировать будущее, определиться с тем, что можно сделать и чего делать нельзя, поэтому спокойно проходят период невзгод. Другие, менее благоразумные или менее везучие, исчезают”.
519
Мои коллеги Андерс Сандберг и Стюарт Армстронг подробнее рассматривают логические и математические аспекты этого утверждения (Armstrong & Sandberg, 2013). Они показывают, что число избыточных копий должно просто возрастать логарифмически, чтобы вероятность существования в любой момент хотя бы одной копии была ненулевой.
520
Распространение этих рисков ограничивается скоростью света, поэтому из за космического расширения область их распространения будет конечной (см. главу 8). Впрочем, нам это мало что дает, поскольку в настоящий момент в область поражения входит все, чего мы когда либо можем достичь. В далеком будущем ситуация немного улучшится: все группы галактик окажутся изолированными друг от друга, поэтому мы, возможно, расселимся по миллионам независимых миров. Но повторно заселить какую либо из таких локаций, находясь при этом в другой, не получится, а потому в среднем при риске в 1 % будет навсегда уничтожаться 1 % из них. Согласно некоторым точкам зрения, это будет не лучше, чем риск с вероятностью 1 % лишиться всех их. Даже если нам достаточно, чтобы выстоял хотя бы один бастион человечества, пользы от него будет мало. В отсутствие возможности повторно заселять локации и при стабильном вековом риске вымирания в каждом из миров 1 к 1000 все локации исчезнут уже через 5 млн лет. Этот срок может показаться немалым, однако, поскольку для начала нам нужно продержаться сто миллиардов лет, пока Вселенная не разделится на изолированные зоны, защититься таким образом у нас не получится. Истинную защиту обеспечивает не избыточность, а готовность принимать риски всерьез и работать над их устранением.
521
Неясно, насколько это помогает. Прежде всего, это зависит от того, какая часть экзистенциального риска не коррелирована между планетами и как лучше всего моделировать этот риск. Можно, например, считать, что некоторая доля агрегированного риска не коррелирована, и утверждать, что расселение по другим планетам ее устранит. Таким образом, устранение этой доли агрегированного риска может существенно изменить наши шансы реализовать свой потенциал. Но мы также можем смоделировать свою ситуацию, посчитав некоррелированной некоторую долю риска в каждом столетии (например, 5 % из общих 10 %). В этом примере устранение некоррелированного риска (при сохранении коррелированного) просто удвоит ожидаемое время до экзистенциальной катастрофы с 10 веков до 20, что лишь незначительно увеличит продолжительность жизни человечества. Я не знаю, какая из этих моделей лучше.