Возможно, что еще задолго до того, как мы начнем играть в «Пиночеле» с интеллектуальной «коробкой», ставя на кон судьбы наших граждан, уже появятся системы оружия с искусственным интеллектом, ставящие под угрозу наш мир. Это не обязательно может быть нечто подобное системе МакГайвера, превращающей в бомбы наши автомобили. Но даже известные нам технологические инструменты, «приправленные» искусственным интеллектом, могут сыграть роль приводного механизма катастрофы или быть настроенными для возможной атаки. Особенно если они начинают взаимодействовать друг с другом. Такие системы оружия с искусственным интеллектом будут обучены действовать и продвигаться вдоль невидимых элементов наших топологий, неожиданно и безжалостно удаляя жизненно важные связи в системах валютного обращения, логистичеких схем или торговых операций. И, что может быть более опасным, мы обнаружим их вкрадчивое влияние на области человеческого познания, подчиняющее нас, шепча нам на ухо с похлопыванием по плечу: «Смотрите туда!», когда на самом деле мы должны были сосредоточить свое внимание на образовавшейся зияющей дыре. Чрезвычайно важно изучить все обстоятельства того, каким образом машины с искуственным интеллектом получат возможность доступа к нашей коммерческой деятельности, нашему разуму или нашему здоровью. Можно допустить рекомендации, подобные: «Вам необходимо пополнить запасы жидкости в организме». Но не допускается: «Вы должны выпить кока-колу. Это бы сделали все люди, такие как вы». Такого рода повседневные «гражданские» проблемы так или иначе будут решены, как я полагаю.
Мы еще не осознали до конца, что возможная кульминация сетевой атаки и обороны проявится при появлении интеллектуального оружия, это будущее, которое уже наступает. Десять лет эпохи ядерного противостояния в прошлом веке. Вспомните, сколь сложные детальные, в том числе публичные, обсуждения велись о том, каким образом должны быть решены проблемы войны и мира в эпоху возможного полного взаимного уничтожения. Сегодня, спустя уже более десяти лет существования сетевой эпохи и нескольких лет развития искусственного интеллекта, мы вновь начинаем с чистого листа. Я думаю, мы могли бы сказать: «У нас нет надежды контролировать каждый компьютер с искусственным интеллектом». Нет ни единого шанса подчинить каждую комнату в общежитии, компьютерную лабораторию или террористический центр. Таким образом, мы должны задать себе вопрос: «Каким образом следует проектировать топологии, в которых работает искусственный интеллект? Можем ли мы защитить себя?» Уже ведутся дискуссии, в которых «ценности» систем искусственного интеллекта тщательно анализируются представителями корпораций и научно-исследовательских институтов. Уже существуют научно-исследовательские лаборатории, где оружие на базе искусственного интеллекта настроено и к настоящему времени даже опробировано. До сих пор уроки истории и войны не были должным образом приняты во внимание этими собраниями. Поля дипломатии и безопасности должны находиьтся именно там, где эти инструменты будут проявляться с самой большой, удивительной энергией. Многие ведущие деятели Новой Касты предупреждают нас о том, что именно искусственный интеллект является «величайшей экзистенциальной угрозой» для человечества. Уже сам факт того, с какой легкостью искусственный интеллект включается в подобные продукты, является своего рода парадоксом, демонстрирующим нам, насколько мы далеки от безопасности. Машины и то, зачем мы их используем, затрагивают самые фундаментальные проблемы того, как организовать наше общество. И хотя все это может представляться идеями из футуристической научной фантастики, попытки ответить на поставленные вопросы возвращают нас к одной из самых старых дискуссий о человеке, мире и политическом устройстве.