Мы можем представить цепочку катастроф, которая увеличивает вероятность человеческого вымирания. Например, падение небольшого астероида приводит к ложному срабатыванию систем предупреждения о ракетном нападении, затем к ядерной войне, которая, после ядерной зимы, приводит к ядерному лету и ослаблению способности человечества бороться с глобальным потеплением, которое и уничтожает оставшихся людей. Такие сценарии можно описывать как цепочки событий, каждое из которых имеет ненулевую вероятность перейти в следующее. И хотя не каждая такая цепочка срабатывает, при достаточном числе попыток она может образоваться. В недавно вышедшей статье Мартина Хеллмана (Martin Hellman. «Risk Analysis of Nuclear Deterrence») метод анализа таких цепочек применяется для вычисления вероятности ядерной войны, в результате получается наихудшая оценка в 1 шанс к 200 в год.
Другой аспект системности возможной глобальной катастрофы можно обнаружить, исследуя аналогии на примере прошлых катастроф. Этот аспект состоит в одновременном совпадении множества факторов, как, например, небольшие нарушения регламента, каждый из которых по отдельности не мог привести к катастрофе и неоднократно допускался в прошлом. Например, для того, чтобы катастрофа «Титаника» могла произойти, должно было, по некоторым подсчетам, одновременно сложиться 24 фактора: от проблем прочности стали до выключенного радиоприемника.
В синергетике есть концепция самоорганизованной критичности. Суть ее в том, что при определенной плотности уязвимых для отказа элементов в системе в ней могут образовываться цепочки отказов неограниченно большой длины.
В силу этого система стремится подстроиться к данному уровню плотности критических элементов. Если плотность слишком велика, система очень быстро выходит на отказ и через него снижает плотность. Если же плотность критических элементов слишком мала, то цепочки отказов почти не возникают и по мере роста системы она безболезненно повышает плотность критических элементов. Примером такой системы является куча песка, на которую падают песчинки, – она стремится образовать определенный угол наклона своей поверхности (например, 54 градуса). Если угол наклона больше этой величины, то очень часто возникают лавины песчинок и снижают наклон; если угол наклона мал, то песчинки могут накапливаться, не образуя лавин.В сложных технических системах роль угла наклона играет количество ошибок и отклонений от регламента, которое имеет тенденцию расти, пока не приводит к катастрофе.
Особенностью модели с кучей является то, что при критическом угле наклона в ней теоретически возможны лавины неограниченно большой длины. Некоторым образом мы можем распространить это рассуждение и на всю земную технологическую цивилизацию, которая, по мере своего роста в отсутствие глобальных катастроф, постепенно снижает требования к безопасности целого, одновременно усложняя взаимосвязи элементов. Это делает теоретически возможным сложный катастрофический процесс, который охватит весь объем технической цивилизации. (Например, страх применения ядерного оружия в отсутствие этого события уменьшается, тогда как само ядерное оружие распространяется и шансы его применения, возможно, возрастают.)
К сказанному примыкает теория «нормальных аварий» Ч. Перроу которая гласит, что при достижении системой некоторой критической сложности катастрофы становятся в ней неизбежными
: их нельзя предотвратить ни с помощью совершенных деталей, ни точным соблюдением идеальных инструкций. Связано это с тем, что число возможных состояний системы растет не линейно, в зависимости от числа элементов, а гораздо быстрее, как экспонента, что делает невозможным вычислить все ее возможные состояния и заранее предсказать, какие из них приведут к катастрофе.Итак, различные технологические риски могут образовывать сложную систему рисков, и поскольку мы ожидаем прихода сразу нескольких сильных технологий одновременно, нам следует ожидать очень сложного взаимодействия между ними.