Одной из фундаментальных причин очевидного несовпадения мнений выступает разница в представлении о том, что такое оправданный консерватизм. Хорошей иллюстрацией здесь служит гораздо более ранний случай спекулятивного риска, когда Лео Силард и Энрико Ферми впервые обсуждали возможность создания атомной бомбы: “Ферми полагал, что, следуя консервативным путем, необходимо вовсе отмести такую вероятность, я же считал, что, следуя консервативным путем, стоит признать, что такое действительно может произойти, и принять все меры предосторожности”[431]
. В 2015 году я наблюдал такую же динамику на важнейшей конференции о будущем ИИ, состоявшейся в Пуэрто-Рико. Все признавали, что неопределенность и несогласие по вопросу о времени появления ОИИ требуют “консервативной оценки” прогресса, но половина присутствующих понимала под этим термином досадноЭта конференция в Пуэрто-Рико стала переломным моментом, обозначив обеспокоенность участников экзистенциальным риском, сопряженным с ИИ. Было достигнуто согласие по существу вопроса, и многие участники подписали открытое письмо о необходимости приступить к серьезной работе, чтобы сделать ИИ надежным и полезным[432]
. Через два года более крупная конференция состоялась в Асиломаре – там, где в 1975 году прошла знаменитая конференция по генетике, на которой биологи собрались, чтобы заблаговременно разработать принципы регулирования будущих возможностей генной инженерии. Собравшись в Асиломаре в 2017 году, исследователи ИИ приняли Асиломарские принципы разработки искусственного интеллекта, чтобы направлять добросовестное долгосрочное развитие отрасли. В их число вошли и принципы, связанные именно с экзистенциальным риском:Пожалуй, лучшее представление о том, что думают люди, работающие в сфере ИИ, позволяет составить опрос 2016 года, в котором приняли участие ведущие исследователи. Их спросили не только о том, может ли появиться ОИИ и когда именно, но и о рисках: 70 % исследователей согласились с общим доводом Стюарта Рассела о том, почему продвинутый ИИ может представлять риск[434]
; 48 % отметили, что обществу следует больше внимания уделять исследованиям безопасности в сфере ИИ (лишь 12 % сочли, что этому следует уделять меньше внимания). Половина респондентов оценила вероятность “чрезвычайно плохого (например, вымирание человечества)” долгосрочного воздействия ИИ не менее чем в 5 %[435]. На мой взгляд, последнее особенно важно: много ли других областей, ведущие исследователи в которых полагают, что с вероятностью один к двадцати конечная цель их работы чрезвычайно плохо повлияет на человечество?Разумеется, это не доказывает, что риски реальны. Но это дает нам понять, что многие исследователи ИИ всерьез полагают, что ОИИ может появиться в течение 50 лет и что это может обернуться экзистенциальной катастрофой. Многое пока неясно, и сохраняется огромный разброс мнений, но эту позицию никак нельзя считать маргинальной.
Один любопытный аргумент в пользу скептического отношения к риску, сопряженному с ИИ, становится сильнее, а не слабее, по мере того как наличие рисков признает все большее число исследователей. Если исследователи понимают, что разработка ИИ чрезвычайно опасна, зачем им вообще ею заниматься? Не станут же они, зная о последствиях, создавать то, что их уничтожит[436]
.