В1:
Очень, очень смешно. Это они не видели, какие рожи корчат роботы-официантки, когда не оставляешь им на чай пару-тройку ядерных батареек. Я уже не говорю про… [В апреле 2015 года международная правозащитная организация Human Rights Watch совместно с Гарвардской юридической школой опубликовала доклад «Mind the Gap. The Lack of Accountability for Killer Robots», посвященный проблемам ответственности, возникающим при применении полностью автономных боевых систем. Военные роботы, способные выбирать и поражать цели без участия человека, смогут совершать действия, которые, будь они совершены человеком, расценивались бы как военные преступления. При этом люди-операторы или командиры подразделений, скорее всего, не будут привлечены к ответственности, в случаях, когда они не могли предусмотреть или остановить неправомерную атаку со стороны автономного робота. Авторы призывают к полному официальному запрету разработки, производства и использования подобных систем на международном и национальном уровне.
Очередное обсуждение будущего боевых роботов состоялось в апреле 2016 года в рамках специального совещания ООН в Женеве. Участники рассмотрели этические, юридические, технические и другие аспекты применения полностью автономных систем вооружения. Международная правозащитная организация Human Rights Watch совместно с Гарвардской юридической школой подготовила еще один доклад о проблемах контроля над роботами-убийцами, призывающий к запрету автономных систем вооружения.
В2:
Полегче! Один ты уже раскурочил, а бюджет у нас не резиновый. И напомню, рубрика называется «Лавка древностей». Считай, что это декорация. Итак, во-вторых. Ученые говорили про необходимость «быть готовыми», поскольку террористы и страны — потенциальные противники все равно могут использовать боевых роботов.В1:
Это просто без комментариев. Отличный довод любого генерала любой эпохи. Что-то еще они придумали, умники эти?В2:
Ну, третьим любимым аргументом яйцеголовых было то, что запрет на использование роботов для ведения боевых действий не решит реальную проблему, то есть — не ликвидирует желание человека использовать технологии «во зло». Кто бы спорил. Доводов против применения военных роботов, кстати, было гораздо больше, начиная с того, что все не очень понимали, кого назначать виноватым, если робот по ошибке порешит пару сотен человек. И конечно, была еще масса туманных соображений этического свойства. В самом начале века умники даже несколько петиций подписывали, предупреждали неразумное человечество об опасностях «военного» искусственного интеллекта.