Читаем Российская Академия Наук полностью

• Некий кусочек ИИ отколется от него и пойдёт на него войной. Или наш ИИ встретит в космосе соперника.

• ИИ только предотвратит возникновение ИИ-конкурентов, но не будет мешать людям убивать себя с помощью биологического оружия и другими способами.

Люди истребили неандертальцев, потому что те были их прямыми конкурентами, но не стремились особенно к истреблению шимпанзе и мелких приматов. Так что у нас есть довольно неплохие шансы выжить при Равнодушном ИИ, однако жизнь эта будет не полна – то есть она не будет реализацией всех тех возможностей, которые люди могли бы достичь, если бы они создали правильный и по-настоящему Дружественный ИИ.

ИИ и государства

ИИ является абсолютным оружием, сила которого пока недооценивается государствами – насколько нам известно. (Однако довольно успешный проект Эвриско начала 80-х получил финансовую поддержку DARPA .) Однако идея о нанотехнологиях уже проникла в умы правителей многих стран, а идея о сильном ИИ лежит недалеко от неё. Поэтому возможен решительный поворот, когда государства и крупные корпорации поймут, что ИИ – это абсолютное оружие – и им может овладеть кто-то другой. Тогда маленькие частные лаборатории будут подмяты крупными государственными корпорациями, как это произошло после открытия цепной реакции на уране. Отметим, что у DARPA есть проект по разработке ИИ , однако он позиционируется как открытый и находящейся на ранней стадии. Впрочем, возможно, что есть мощные ИИ проекты, о которых мы знаем не больше, чем знали обычнее граждане о Манхэттенском проекте в годы Второй мировой войны.

Другой вариант – маленькая группа талантливых людей создаст ИИ раньше, чем правительства поймут ценность и, более того, опасность, исходящую от ИИ. Однако ИИ, созданный отдельным государством, скорее будет национальным, а не общечеловеческим. Если ИИ атака будет неудачной, она может стать поводом войны между странами.

Вероятность появления ИИ

Вероятность глобальной катастрофы, связанной с ИИ, является произведением вероятностей того, что он вообще когда-либо будет создан и того, что он будет применён неким ошибочным образом. Я полагаю, что тем или иным способом сильный ИИ будет создан в течение XXI века, если только никакая другая катастрофа не помешает технологическому развитию. Даже если попытки построить ИИ с помощью компьютеров потерпят крах, всегда есть запасный вариант: а именно, успехи в сканировании мозга позволят создавать его электронные копии, и успехи в генетике – создавать генетически усовершенствованные человеческие мозги. Электронные копии обычного мозга смогут работать в миллион раз быстрее, а если при этом это будут копии высоко гениального и правильного обученного мозга, причём они будут объединены тысячами в некий виртуальный НИИ, то, в конечном счёте, мы всё равно получим интеллект, в миллионы раз превосходящий человеческий количественно и качественно.

Затем имеется несколько временных стадий, на которых ИИ может представлять опасность. Начальный этап:

1) Момент первого запуска: риск неконтролируемого развития и распространения.

2) Момент, когда владелец первого ИИ осознаёт своё преимущество в том, что может применить его как абсолютное оружие для достижения любых целей на Земле. (При этом владельцем ИИ может быть и государство, и крупная корпорация, хотя в конечном счёте – один или несколько человек.) Хотя эти цели могут быть благими по крайне мере для некоторых людей, есть риск, что ИИ начнёт проявлять некорректное поведение в процессе распространения по Земле, тогда как в лаборатории он вёл себя идеально.

3) Момент, когда этот владелец ИИ осознаёт, что даже если он ничего не делает, кто-то другой очень скоро создаст свой ИИ и может использовать его для достижения каких-то других целей на Земле, и в первую очередь – для того, чтобы лишить нашего владельца способности использовать свой ИИ в полную силу. Это побуждает создавшего ИИ первым попытаться остановить другие ИИ проекты. При этом он оказывается перед дилеммой: применить ещё сырой ИИ или опоздать. Это создаёт риск применения с невыверенной системой целей.

4) Следующая фаза риска – борьба между несколькими ИИ за контроль над Землёй. Опасность в том, что будет применяться много разного оружия, которое будет воздействовать на людей.

Понятно, что весь начальный этап может уместиться в несколько дней. Этап функционирования:

5) На этом этапе основной риск связан с тем, что система целей ИИ содержит некую неочевидную ошибку, которая может проявиться неожиданным образом спустя многие годы. (См. текст «Таблица критический ошибок Дружественного ИИ» Юдковски.) Она может проявиться или мгновенно, в виде внезапного сбоя, или постепенно, в виде некого процесса, постепенно вымывающего людей из жизни (вроде сверхнаркотика и безработицы).

Перейти на страницу:

Похожие книги

10 заповедей спасения России
10 заповедей спасения России

Как пишет популярный писатель и публицист Сергей Кремлев, «футурологи пытаются предвидеть будущее… Но можно ли предвидеть будущее России? То общество, в котором мы живем сегодня, не устраивает никого, кроме чиновников и кучки нуворишей. Такая Россия народу не нужна. А какая нужна?..»Ответ на этот вопрос содержится в его книге. Прежде всего, он пишет о том, какой вождь нам нужен и какую политику ему следует проводить; затем – по каким законам должна строиться наша жизнь во всех ее проявлениях: в хозяйственной, социальной, культурной сферах. Для того чтобы эти рассуждения не были голословными, автор подкрепляет их примерами из нашего прошлого, из истории России, рассказывает о базисных принципах, на которых «всегда стояла и будет стоять русская земля».Некоторые выводы С. Кремлева, возможно, покажутся читателю спорными, но они открывают широкое поле для дискуссии о будущем нашего государства.

Сергей Кремлёв , Сергей Тарасович Кремлев

Публицистика / Документальное
Отмытый роман Пастернака: «Доктор Живаго» между КГБ и ЦРУ
Отмытый роман Пастернака: «Доктор Живаго» между КГБ и ЦРУ

Пожалуй, это последняя литературная тайна ХХ века, вокруг которой существует заговор молчания. Всем известно, что главная книга Бориса Пастернака была запрещена на родине автора, и писателю пришлось отдать рукопись западным издателям. Выход «Доктора Живаго» по-итальянски, а затем по-французски, по-немецки, по-английски был резко неприятен советскому агитпропу, но еще не трагичен. Главные силы ЦК, КГБ и Союза писателей были брошены на предотвращение русского издания. Американская разведка (ЦРУ) решила напечатать книгу на Западе за свой счет. Эта операция долго и тщательно готовилась и была проведена в глубочайшей тайне. Даже через пятьдесят лет, прошедших с тех пор, большинство участников операции не знают всей картины в ее полноте. Историк холодной войны журналист Иван Толстой посвятил раскрытию этого детективного сюжета двадцать лет...

Иван Никитич Толстой , Иван Толстой

Публицистика / Документальное / Биографии и Мемуары
10 дней в ИГИЛ* (* Организация запрещена на территории РФ)
10 дней в ИГИЛ* (* Организация запрещена на территории РФ)

[b]Организация ИГИЛ запрещена на территории РФ.[/b]Эта книга – шокирующий рассказ о десяти днях, проведенных немецким журналистом на территории, захваченной запрещенной в России террористической организацией «Исламское государство» (ИГИЛ, ИГ). Юрген Тоденхёфер стал первым западным журналистом, сумевшим выбраться оттуда живым. Все это время он буквально ходил по лезвию ножа, общаясь с боевиками, «чиновниками» и местным населением, скрываясь от американских беспилотников и бомб…С предельной честностью и беспристрастностью автор анализирует идеологию террористов. Составив психологические портреты боевиков, он выясняет, что заставило всех этих людей оставить семью, приличную работу, всю свою прежнюю жизнь – чтобы стать врагами человечества.

Юрген Тоденхёфер

Документальная литература / Публицистика / Документальное