«Эффективный альтруизм» перекликался с движением, исследующим экзистенциальные риски искусственного интеллекта (Центр эффективного альтруизма, главный международный пропагандист движения занял помещение в Оксфорде чуть ниже офиса Института будущего человечества).
Мне показалось странным, хотя и не особенно удивительным, что гипотетическая опасность, связанная с еще не существующей технологией, для этих миллиардеров-предпринимателей является более достойной инвестицией, чем, скажем, чистая вода в развивающихся странах или проблема громадного неравенства доходов в их собственной стране. Как я понял, дело было в окупаемости затрат времени, денег и усилий. Об этом я узнал от Виктории Краковны, математика, аспирантки Гарварда – вместе с космологом Массачусетского технологического института Максом Тегмарком и основателем скайпа Яаном Таллинном она была учредителем Института будущей жизни, который в начале 2015 года получил от Илона Маска 10 миллионов долларов на создание глобальной исследовательской инициативы, направленной на предотвращение катастрофы, связанной с искусственным интеллектом.
– Речь идет о том, что вы получите за свой доллар, – сказала она. Американская идиома с украинским акцентом звучала довольно странно. Я, Виктория и ее муж Янос, венгерско-канадский математик и бывший научный сотрудник МИРИ, были единственными посетителями индийского ресторана на Шаттак-авеню в Беркли – своего рода глухой невообразимой пещеры, где, по-видимому, обслуживали пьяных магистрантов. Виктория говорила, чрезвычайно быстро поедая очень острое блюдо с курицей. Она вела себя вполне уверенно, но слегка отстраненно, и, как и Нейт, практически не смотрела в глаза.
Виктория с Яносом приехали в область залива Сан-Франциско на конференцию, посвященную «эффективному альтруизму». Они встретились десять лет назад в математическом лагере средней школы и с тех пор были вместе и жили в своего рода рационалистической коммуне «Цитадель» в Бостоне.
– Проблемы экзистенциального риска вписываются в эту ценностную метрику, – уточнила Виктория. – Если рассмотреть возможность уравновешивания интересов будущих людей и интересов уже живущих людей, то снижение вероятности серьезной катастрофы в будущем может стать верным стратегическим решением. Если вы преуспеете в деле спасения человечества от того, что может его уничтожить, это явно превзойдет любую пользу, которую вы могли бы сделать для людей, живущих в настоящее время.
Институт будущей жизни, в отличие от МИРИ, уделял математической загадке о разработке «дружественного искусственного интеллекта» не такое большое внимание. По ее словам, группа выступала в качестве «информационно-пропагандистского кластера», осведомляя общественность о серьезности этой проблемы. Виктория объяснила, что речь идет не о внимании СМИ или широкой публики, с которыми работает Институт будущей жизни, а скорее о самих исследователях искусственного интеллекта, которые только начинают воспринимать идею экзистенциального риска всерьез.
Одним из тех, кто играл важную роль в освещении проблемы экзистенционального риска, был Стюарт Рассел, профессор информатики Калифорнийского университета в Беркли. В соавторстве с Питером Норвигом, директором по исследованиям Google, он написал книгу об искусственном интеллекте «Искусственный интеллект: современный подход» (Artificial Intelligence: A Modern Approach) – ее широко используют в качестве основного учебника об искусственном интеллекте на университетских курсах информатики.
В 2014 году Рассел и трое других ученых: Стивен Хокинг, Макс Тегмарк и Фрэнк Вильчек, физик и лауреат Нобелевской премии, опубликовали на страницах интернет-издания The Huffington Post строгое предупреждение об опасностях искусственного интеллекта. Среди разработчиков искусственного интеллекта распространена точка зрения, согласно которой признание того факта, что настоящий искусственный интеллект будет создан еще совсем не скоро, мы можем просто продолжать работать над ним, а решать проблемы безопасности будем, если или когда они возникнут. Такую точку зрения Рассел и его соавторы критикуют как принципиально ошибочную. «Если бы высокоразвитая инопланетная цивилизация прислала нам текстовое сообщение: «Мы прибудем к вам через несколько десятилетий», – разве мы бы просто ответили: «Хорошо, позвоните нам, когда доберетесь, мы оставим свет включенным»? Наверное, нет, но примерно это происходит в отношении искусственного интеллекта».