Также возникают вопросы к экономической эффективности такого пути. На мой взгляд, основание космической колонии – не самый экономичный способ снизить риск в текущем столетии. Например, основать подобные самодостаточные колонии в труднодоступных регионах Земли (в Антарктиде, на морском дне…) вышло бы гораздо дешевле, и при этом они защитили бы нас от многих из тех же рисков. Впрочем, возможно, неверно полагать, что деньги на космические колонии выделяются из того же ограниченного бюджета, что и на снижение рисков. Это настолько вдохновляющий проект, что средства на него могут поступить и из других источников, а вызываемое им воодушевление (вкупе с пониманием, что человечеству действительно суждено жить среди звезд) может способствовать увеличению общего объема ресурсов, выделяемых на обеспечение экзистенциальной безопасности.
522
В зависимости от того, как именно мы определяем экзистенциальную катастрофу, их может случиться и две. Допустим, мы лишились 99 % своего потенциала в экзистенциальной катастрофе. Поскольку я не утверждаю, что катастрофа может считаться экзистенциальной, только если полностью уничтожит наш потенциал, такая катастрофа идет в расчет. В последующие годы нам, возможно, целесообразно будет оберегать оставшийся 1 % нашего потенциала от новых катастроф. Если изначально наш потенциал был поистине велик, то оставшийся 1 % также может быть велик в сравнении с нашими будничными заботами и доводы в пользу его сохранения могут быть очень вескими. В этом случае людям, живущим после первой экзистенциальной катастрофы, логично изучить все подходы к работе с экзистенциальным риском.
Можно определить экзистенциальный риск через наш остаточный потенциал, и тогда человечество может столкнуться с несколькими последовательными экзистенциальными катастрофами, а можно определить его через наш изначальный потенциал, и тогда в расчет пойдет лишь первая катастрофа. Я не знаю, какое из определений лучше, поэтому оставляю этот вопрос открытым. Обратите, однако, внимание, что ничего из написанного в этом разделе из за этого не меняется. Даже если люди смогут научиться на ошибках первой экзистенциальной катастрофы, это позволит им сохранить лишь остатки ценности, а значит, первая катастрофа безгранично важнее, и при этом сталкиваются с ней люди, в представлении которых она имеет беспрецедентный характер.
523
См. Groenewold (1970) и Bostrom (2002b).
524
Эти меры могут быть направлены на любую стадию катастрофы – предупреждать ее начало, ограничивать ее распространение, создавать устойчивость к ее воздействию, – но выделять ресурсы, собирать информацию и планировать действия все равно нужно заранее.
525
Я взял эту мысль у Бустрёма (Bostrom, 2013, p. 27).
526
Иногда эту ситуацию называют “Найтовой неопределенностью” или просто “неопределенностью” и отличают от ситуаций “риска”, в которых у нас есть доступ к вероятностям (Knight, 1921). Существует несколько способов провести такое различение, например применять понятие “неопределенность” только к ситуациям, когда мы не обладаем никакой поддающейся количественной оценке информацией о том, случится ли событие.
Я не стану использовать такую терминологию на страницах этой книги и продолжу называть экзистенциальные риски “рисками”. Обратите внимание, что почти всегда я говорю о “рисках” применительно к ситуациям, объективная вероятность которых нам неизвестна, но у нас есть хотя бы какие то количественные данные о том, случится ли катастрофа (например, то, что вероятность начала ядерной войны в следующую минуту составляет менее 50 %).
527
Обзор попыток и методик оценки экзистенциального риска см. в Rowe and Beard (2018).
528
Lepore (2017).
529
Дерево ошибок – это схема логических связей между событиями, в частности связей, приводящих к провалу. Оно позволяет выявить возможные источники провалов – последовательности и комбинации событий, которые должны случиться, чтобы дело окончилось неудачей, и оценить их вероятность.
530
Вопрос об антропных эффектах отбора при оценке риска был поднят в Leslie (1996, pp. 77, 139–141) и изучен в Bostrom (2002a). См. работу Cirkovic, Sandberg & Bostrom (2010), где тщательно анализируется “антропная тень”: цензурирование исторических данных о различных событиях, связанных с риском вымирания.
531
Испытание термоядерной бомбы США на атолле Бикини в 1954 году, когда мощность и последствия взрыва оказались значительно выше, чем было запланировано, из-за непредвиденных дополнительных реакций. –
532
Это подчеркивается, с привязкой к Большому адронному коллайдеру, в работе Ord, Hillerbrand & Sandberg (2010). Разобраться, в чем проблема, поможет байесовский подход. У нас есть априорное представление об объективной вероятности, а также некоторые данные, подкрепляющие расчеты ученых. Следовательно, наша апостериорная оценка должна находиться в промежутке между априорной оценкой и оценкой ученых. Когда ученые дают чрезвычайно низкую оценку, апостериорная оценка, как правило, оказывается выше.