Читаем 2062: время машин полностью

Один из наиболее весомых аргументов – роботы будут вести себя этичнее солдат. Однако, как я уже отмечал, мы все еще не умеем создавать моральных роботов. Нам неизвестно, будет ли ИИ когда-нибудь обладать состраданием и эмпатией, необходимыми для этичного поведения. Даже если предположить, что мы сможем создать таких роботов, нам придется придумать, как сделать так, чтобы их нельзя было взломать.

Другое возражение состоит в том, что использование роботов позволит не подвергать опасности солдат. Некоторые даже утверждают, что в таком случае использование роботов – наша моральная обязанность. Самая главная проблема этого аргумента – он не учитывает тех, против кого используются роботы-убийцы. Скорость, с которой можно будет победить неприятеля, вырастет из-за использования САО, а потому война станет более доступным методом. В конце концов это приведет к еще большему количеству смертей. Мы не можем учитывать только собственные потери.

Третье возражение заключается в том, что невозможно определить значение словосочетания «автономные системы вооружения». Следовательно, как можно запретить то, что мы не можем определить? Согласен, это непросто. В области изучения ИИ мы к этому привыкли. Большинство исследователей перестали пытаться определить, что такое искусственный интеллект; мы просто создаем машины, которые умеют всё больше разных вещей. Полагаю, что никакой запрет не сможет дать четкое определение автономным вооруженным системам. Он просто обозначит границу, которую нельзя переходить. Полностью автономный дрон, способный днями летать над полем боя, скорее всего, будет находиться за этой чертой. Однако международное сообщество может сойтись на том, что защитные автономные системы вооружения, такие как система противоракетной обороны Phalanx, могут быть разрешены. С появлением новых технологий вопрос об их легальности снова пересмотрят.

Четвертое возражение – новые военные технологии сделали мир безопаснее и сократили количество насилия, а потому автономные системные вооружения стоит принять. Подобные аргументы выдвигает, например, Стивен Пинкер в своей книге «Добрые ангелы человеческой природы»[61]. Пинкер убедительно рассуждает о том, что в мире стало меньше насилия и геноцида, чем в любой другой период истории. Однако его рассуждения совершенно не противоречат необходимости запрета. Разрушительная сила новых технологий сдерживается только благодаря международному гуманитарному праву и новым соглашениям по оружию. К принятию Гаагской конвенции 1899 года, в которой фигурировал запрет на воздушные бомбардировки, привела именно бомбардировка Венеции с воздушных шаров в 1849 году – по общему мнению, первая воздушная бомбардировка в истории. Точно так же новые законы нужны нам для ограничения использования роботов-убийц.

В качестве пятого возражения некоторые приводят факт, что в отличие от таких технологий, как ослепляющие лазеры, здесь мы имеем дело с широкой категорией свойств, которые могут быть приложены к любому существующему оружию. Это будет похоже на запрет электричества. Более того, многие виды оружия уже сегодня обладают какой-то ограниченной формой автономии, а потому невозможно будет проверить, было ли полуавтономное оружие обновлено до следующей стадии.

Этот аргумент показывает плохое понимание того, как работают договоры об оружии. Нет никаких специальных проверок для обнаружения ослепляющих лазеров. Не существует полицейского подразделения, которое отвечает за то, чтобы компании не покупали противопехотные мины. Если происходит нарушение договора, такие общественные организации, как «Хьюман райтс вотч», их фиксируют. По всему миру выходят статьи, обличающие это нарушение. На заседаниях ООН принимают резолюции. Угроза Гаагского суда остается, хоть и маячит где-то вдалеке.

Этого хватает для того, чтобы договоры об оружии редко нарушались, чтобы оружейные компании гарантированно не продавали запрещенное оружие, чтобы оно не попадало на черный рынок или в руки террористам. Чего-то подобного можно ожидать и с автономными системами вооружения.

Первые шаги

ООН в конце 2016 года решила, что ГПЭ, учрежденная для решения этого вопроса, соберется дважды в 2017-м, в августе и ноябре, прямо перед ежегодной конференцией КНО. К сожалению, хотя дипломаты и осознали срочную необходимость обсуждения этой проблемы, августовское собрание было отменено.

ООН приняла новые правила отчетности, которые обязывают проводить каждую встречу за свой счет. Некоторые страны, например Бразилия, сильно задолжали свою часть. Насколько мне известно, Бразилия не имеет ничего против дискуссии о роботах-убийцах. Просто уже несколько лет не выплачивает свой долг. Сумма, требующаяся ООН для организации августовской встречи, составляла всего пару сотен тысяч долларов. Для того чтобы сделать мир лучше и безопаснее, эта сумма – сущие копейки, а потому я помог найти спонсора.

Перейти на страницу:

Все книги серии Технологии и бизнес

Технологии против человека
Технологии против человека

Технологии захватывают мир, и грани между естественным и рукотворным становятся все тоньше. Возможно, через пару десятилетий мы сможем искать информацию в интернете, лишь подумав об этом, – и жить многие сотни лет, искусственно обновляя своё тело. А если так случится – то что будет с человечеством? Что, если технологии избавят нас от необходимости работать, от старения и болезней? Всемирно признанный футуролог Герд Леонгард размышляет, как изменится мир вокруг нас и мы сами. В основу этой книги легло множество фактов и исследований, с помощью которых автор предсказывает будущее человечества. Разумеется, сколь бы ни были точны прогнозы, мы не сможем заранее узнать, как именно изменятся люди нового мира, как будут относиться к себе и друг к другу. Но к цивилизации будущего имеет смысл готовиться уже сейчас!Герд Леонгард входит в сотню главных лидеров мнений в Европе по версии Wired Magazine. The Wall Street Journal назвал Леонгарда одним из ведущих технологических футуристов в мире.

Герд Леонгард

Зарубежная образовательная литература, зарубежная прикладная, научно-популярная литература / Прочая научная литература / Образование и наука
2062: время машин
2062: время машин

2062 год – что это за дата? Ведущие эксперты по искусственному интеллекту и робототехнике предсказывают: в 2062 году мы сможем создать искусственный разум, который превзойдет возможности человека. Еще в начале 1990-х Гарри Каспаров уверен, что «в классических шахматах на серьёзном уровне компьютерам ничего не светит в XX веке»… и в 1997 году проигрывает компьютеру Deep Blue. А двадцать лет спустя AlphaGo выигрывает партию у лучшего в мире игрока в го. В интервью ВВС Стивен Хокинг заметил, что «полноценный искусственный интеллект может стать концом человеческой расы, поскольку будет самостоятельно и стремительно совершенствоваться, а люди, зависящие от медленной биологической эволюции, неспособны с ним конкурировать». Так ли это? Что же нас ждет теперь? На этот вопрос отвечает Тоби Уолш, признанный специалист по искусственному интеллекту. В своей книге он внимательно и последовательно изучает каждую сторону нашего «светлого будущего»: от мировой экономики до новой человеческой идентичности. Уже поздно обсуждать, хорош или плох будет мир в этом очень недалеком будущем. Сейчас главное – понять, как к нему готовиться.

Тоби Уолш

Зарубежная образовательная литература, зарубежная прикладная, научно-популярная литература / Учебная и научная литература / Образование и наука

Похожие книги