Изменение характера вооруженного столкновения за прошлые несколько десятилетий (от войны между солдатами на поле боя – к асимметричным конфликтам), характеризуемого боями на городских улицах среди гражданского населения, сделало различение воюющих и невоюющих людей очень трудным. Государства, активно разрабатывающие автономное оружие (США, Израиль, европейские страны), воюют преимущественно с террористами, которые не носят униформы или знаков отличия. Вместо этого они стремятся быть как можно более похожими на гражданское население. Казалось бы, что робот может легко дать ответ ДА или НЕТ на вопрос с двойным ответом – действительно ли человек является противником? Но фактически полностью автономное оружие не сможет дать правильный ответ, если воюющие стороны не будут носить форму и/или знаков отличия (например, погоны). Различение гражданского лица и вооруженного террориста находится вне рамок машинного восприятия. В любом случае террористам было бы легко обмануть этих роботов, например, пряча оружие.
Требование, чтобы применение оружия было пропорциональным (одно из самых сложных правил международного гуманитарного права) нуждается в человеческой оценке ситуации, что непосильно для полностью автономного оружия. Тест пропорциональности запрещает применение оружия, если ожидаемый вред гражданским лицам превышает ожидаемый эффект от его военного применения. Определение пропорциональности применения того или иного оружия зависит в большой степени от конкретной ситуации на поле боя. Юридически правильный ответ в одной ситуации может стать неверным даже при небольшом изменении фактов, лежащих в основе юридической оценки.
Очень маловероятно, что робот сможет анализировать огромное количество возможных сценариев, чтобы правильно интерпретировать ситуацию в режиме реального времени. Проблемы робота с анализом такого количества ситуаций из-за ограниченности вычислительной мощности компьютера и программного обеспечения вмешались бы в его способность правильно выполнить тест пропорциональности. Те, кто интерпретирует международное гуманитарное право в сложных и динамичных сценариях, призывают на помощь человеческое суждение, а не автоматическую способность принятия решения компьютером. Тест пропорциональности субъективен, учитывает довольно широкий спектр мнений и должен, прежде всего, быть вопросом здравого смысла и разума военных начальников.
Международные суды, вооруженные силы, например, приняли «стандарт разумного военачальника». Международный военный трибунал для бывшей Югославии, например, писал: «В определении, было ли применение оружия пропорционально, необходимо исследовать, может ли в сложившейся ситуации человек в условиях, когда вокруг совершаются массовые преступления, ожидать, что чрезмерные жертвы среди гражданского населения будут результатом применения оружия по его приказу». Тест на пропорциональность требует больше, чем балансирование количественных данных. И робот не может быть запрограммирован так, чтобы дублировать психологические процессы при принятии человеком решения (которые необходимы, чтобы оценить пропорциональность применения оружия).
Приведем примеры.
Сценарий, в котором полностью автономный самолет идентифицирует появившуюся важную цель (например, лидера бандформирования), иллюстрирует трудности, с которыми такие роботы могут столкнуться при применении теста пропорциональности. Самолет может правильно определить местонахождение вражеского лидера в населенном районе, но он должен будет оценить, будет ли законно стрелять в него. Во-первых, если такая цель находится в городе, то ситуация вокруг нее постоянно меняется. Например, школьный автобус может внезапно оказаться на линии прицеливания. Во-вторых, самолет должен взвесить ожидаемые преимущества уничтожения лидера против числа гражданских лиц, которые, как он ожидает, будут убиты. Каждый лидер может иметь различную ценность, и его ценность может изменяться в зависимости от ситуации в конфликте. Кроме того, люди лучше подходят для того, чтобы делать такие оценочные суждения.
Как и пропорциональность, военная необходимость требует субъективного анализа ситуации. Это позволяет вооруженным силам планировать военные действия, принимать во внимание практические требования военной ситуации в любой данный момент времени. Но военная необходимость ограничивается требованием «человечности». Один ученый описал военную необходимость как «контекстно-зависимое, основанное на ценности суждение командующего (в пределах определенных ограничений достоверности)». Идентификация, стал ли вражеский солдат «вне боя» (по-французски hors de combat), т. е. не способный или не желающий оказать сопротивление, требует человеческой оценки. В частности, полностью автономному роботу-часовому будет трудно принять решение – стрелять ли еще в упавшего нарушителя границы (в которого робот уже стрелял)?