Точный и надежный прогноз — дело сложное. Даже когда мы изо всех сил стараемся учесть в модели все существенные нюансы, входные данные и предположения, лежащие в ее основе, могут существенно повлиять на результат. Оптимистичный прогноз не имеет смысла, если модель построена на предположениях, связанных с серьезными неопределенностями. Чтобы прогноз имел какую‑то ценность, необходимо тщательно рассматривать эти неопределенности и никогда о них не забывать.
Прежде чем обратиться к другим примерам, позвольте мне привести в качестве иллюстрации к проблеме забавный случай. В начале своей научной карьеры я обратила внимание на то, что Стандартная модель допускает для определенной величины гораздо более широкий диапазон, чем предсказывалось ранее, за счет квантово–механической составляющей, размер которой зависел от недавно (на тот момент) измеренной и удивительно большой массы t–кварка. Когда я представила свои выводы на конференции, мне предложили построить график зависимости предсказанной мной величины от массы t–кварка. Я отказалась, зная, что эта величина зависит от слишком многих параметров и что оставшиеся неопределенности не позволят построить здесь простую кривую. Однако среди коллег нашелся «специалист», который, недооценив неопределенности, все‑таки построил график (мне почему‑то кажется, что сегодня многие прогнозы в реальной жизни делаются именно так), и некоторое время на его предсказание достаточно широко ссылались. Со временем, когда эту величину измерили, и она не попала в предсказанный диапазон, такая несогласованность нашла простое и верное объяснение: эксперт был слишком оптимистичен в оценке неопределенностей. Очевидно, лучше избегать подобного подхода как в науке, так и в любой жизненной ситуации. Мы хотим, чтобы прогнозы имели смысл, а это возможно только при тщательном учете неопределенностей.
Реальные ситуации бывают еще более «упрямы» и требуют, чтобы мы еще осторожнее обращались с неопределенностями и неизвестными. Нужно с оглядкой подходить к прогнозам, в которых невозможно учесть или просто не учтены все эти вещи.
Одна из проблем прогнозирования связана с корректной оценкой системных рисков, которые почти всегда очень трудно перевести в количественную форму. В любой крупной взаимосвязанной системе меньше всего внимания уделяется крупномасштабным элементам, которые «тянут» за собой модели множественных отказов, возникающих из‑за многочисленных взаимосвязей между меньшими частями. Информация может потеряться при передаче или просто остаться незамеченной. Такие системные проблемы способны многократно умножить последствия любых других потенциальных рисков.
Будучи членом комиссии по безопасности исследовательских программ NASA, я не раз сталкивалась с подобными структурными проблемами. Как известно, подразделения космического агентства раскиданы по всей стране. И если о своей технике и оборудовании отдельные центры агентства еще заботятся, то качество связи между ними никого особенно не интересует и денег в эту инфраструктуру вкладывается куда меньше. В путешествиях между подразделениями информация легко теряется. В адресованном мне электронном письме аналитик по рискам Джо Фрагола, работавший в NASA и аэрокосмической отрасли и проводивший на этот счет специальное исследование, писал: «Мой опыт говорит о том, что анализ рисков, проведенный без совместного участия специалистов по конкретным вопросам, команды системной интеграции и риск–аналитиков, не имеет смысла. В частности, так называемые риск–анализы под ключ превратились в упражнения по статистике и представляют в настоящее время лишь академический интерес». Слишком часто аналитикам приходится поступаться либо широтой, либо подробностью, хотя в долгосрочной перспективе важно и то и другое.
Одним из самых наглядных примеров подобной ошибки (из целого ряда других) стал инцидент на платформе British Petroleum в Мексиканском заливе в апреле 2010 г. В лекции, прочитанной в Гарварде в феврале 2011 г., Черри Мюррей, декан Гарвардского университета и член Национальной комиссии по утечке нефти на платформе Deepwater Horizon, назвал ошибки руководства ВР одной из серьезнейших составляющих аварии. Ричард Сирс, бывший вице–президент компании Shell Oil Co., который в комиссии был старшим советником по науке и техническим вопросам, рассказал, что руководство ВР мыслило, как он выразился, «гиперлинейно»; оно пыталось решать проблемы по очереди, одну за другой и даже не пыталось сформировать общую картину происходящего.