Читаем 2062: время машин полностью

В связи с недавним избранием Австралии в Совет по правам человека ООН проблема смертоносного автономного оружия стоит для нее наиболее остро. Автономные системы вооружения – проблема, связанная с правами человека. Специальный докладчик для Совета по правам человека, профессор Кристоф Хейнс, был первым, кто поднял в ООН проблему автономных систем вооружения, когда в 2013 году заявил, что машины никогда не должны иметь власть над жизнью и смертью людей[63].

Сообщество исследователей ИИ и робототехники посылало ясные и четкие сигналы относительно САО на протяжении последних нескольких лет. Мы предупреждали о гонке вооружений, и теперь видим ее начало. Мы также предупреждали о серьезных технических, юридических и моральных рисках, связанных с наличием автономных систем вооружения на поле боя. Так же, как и с изменениями климата, в научном сообществе есть несогласные. Некоторые говорят, что нужен не запрет, а мораторий. Однако абсолютное большинство предупреждает об опасности и призывает к упреждающему запрету.

Альтернативные меры

Позиция Великобритании заключается в том, что автономные системы вооружения нарушают существующее международное гуманитарное право и что Британия не станет разрабатывать такое оружие, а новые договоры для решения этой проблемы не нужны. В первом утверждении есть определенная доля истины. Однако никаких гарантий исполнения второго утверждения у нас нет. В прошлом даже Великобритания тайно разрабатывала химическое и биологическое оружие. История же имеет свои возражения против третьего утверждения. Новые технологии каждый раз требовали усиления международного гуманитарного права на протяжении всего прошлого века.

Основная альтернатива запрету, которую предлагает Великобритания, – это так называемые проверки оружия по статье 36. Статья 36 Дополнительного протокола I 1977 года Женевской конвенции требует от государства оценивать новое оружие, новые средства и методы ведения войны, чтобы удостовериться, что они соответствуют международному гуманитарному праву. Великобритания проводит подобные проверки каждой новой системы вооружения.

По моему мнению, проверки по статье 36 – неудовлетворительная альтернатива по нескольким причинам. Во-первых, нет никаких общепринятых стандартов оценки. Как мы можем быть уверены, что Россия (не совсем случайный выбор страны) так же основательно подходит к этому вопросу, как и Великобритания? Во-вторых, не было ни одного примера того, как система вооружения провалила проверки по статье 36. Это вряд ли означает, что проверки успешно не дают технологиям просочиться на поле боя. В-третьих, только несколько стран на сегодняшний день проводят такие проверки – те страны, которые обязаны публиковать их результаты.

Как избежать такого будущего

В решении этой проблемы мы находимся на распутье. Мы можем выбрать бездействие и позволить оружейным компаниям разрабатывать и продавать смертоносное автономное оружие. Это грозит нам большими неприятностями. Или мы можем не молчать и призвать ООН к тому, чтобы принять меры.

Академическое сообщество сказало свое веское слово. То же самое сделала и промышленность. По моему опыту обсуждения этой проблемы, большинство людей также поддерживают запрет. Опрос Ipsos 2017 года в двадцати трех странах показал, что в большинстве из них люди склоняются к неприятию автономных систем вооружения.

Прежде чем принять меры против большей части оружия прошлого, мы сначала должны были испытать его действие. Нам пришлось сперва наблюдать ужасные последствия применения химического оружия в Первой мировой войне, прежде чем мы предприняли необходимые шаги и составили Женевский протокол 1925 года. Нам пришлось столкнуться с ужасами Хиросимы и Нагасаки, а также несколькими острыми ситуациями в течение холодной войны, прежде чем мы запретили ядерное оружие[64]. Мы имеем только один пример упреждающего запрета – запрет ослепляющих лазеров.

Боюсь, нам снова предстоит увидеть кошмарный эффект от применения нового оружия – на сей раз смертоносных автономных систем, прежде чем мы осмелимся их запретить. Что бы ни случилось, к 2062 году делегирование машине решения о жизни и смерти человека должно быть морально неприемлемым. Тогда мы, может быть, избавим себя от ужасной участи.

6. Конец наших ценностей

Автономные системы вооружения – пример того, как технологические изменения могут угрожать фундаментальным человеческим ценностям, на которых держится наше общество. Мы понимаем, что люди разделяют некоторые естественные права, такие как право на свободу мысли, совести и религии. Мы поддерживаем больных и пожилых людей. Мы уверены в том, что каждый должен получить свой справедливый шанс. Что к мужчинам и женщинам нужно относиться одинаково. Что раса и религия не могут быть основанием для вынесения суждений о конкретном человеке.

Перейти на страницу:

Все книги серии Технологии и бизнес

Технологии против человека
Технологии против человека

Технологии захватывают мир, и грани между естественным и рукотворным становятся все тоньше. Возможно, через пару десятилетий мы сможем искать информацию в интернете, лишь подумав об этом, – и жить многие сотни лет, искусственно обновляя своё тело. А если так случится – то что будет с человечеством? Что, если технологии избавят нас от необходимости работать, от старения и болезней? Всемирно признанный футуролог Герд Леонгард размышляет, как изменится мир вокруг нас и мы сами. В основу этой книги легло множество фактов и исследований, с помощью которых автор предсказывает будущее человечества. Разумеется, сколь бы ни были точны прогнозы, мы не сможем заранее узнать, как именно изменятся люди нового мира, как будут относиться к себе и друг к другу. Но к цивилизации будущего имеет смысл готовиться уже сейчас!Герд Леонгард входит в сотню главных лидеров мнений в Европе по версии Wired Magazine. The Wall Street Journal назвал Леонгарда одним из ведущих технологических футуристов в мире.

Герд Леонгард

Зарубежная образовательная литература, зарубежная прикладная, научно-популярная литература / Прочая научная литература / Образование и наука
2062: время машин
2062: время машин

2062 год – что это за дата? Ведущие эксперты по искусственному интеллекту и робототехнике предсказывают: в 2062 году мы сможем создать искусственный разум, который превзойдет возможности человека. Еще в начале 1990-х Гарри Каспаров уверен, что «в классических шахматах на серьёзном уровне компьютерам ничего не светит в XX веке»… и в 1997 году проигрывает компьютеру Deep Blue. А двадцать лет спустя AlphaGo выигрывает партию у лучшего в мире игрока в го. В интервью ВВС Стивен Хокинг заметил, что «полноценный искусственный интеллект может стать концом человеческой расы, поскольку будет самостоятельно и стремительно совершенствоваться, а люди, зависящие от медленной биологической эволюции, неспособны с ним конкурировать». Так ли это? Что же нас ждет теперь? На этот вопрос отвечает Тоби Уолш, признанный специалист по искусственному интеллекту. В своей книге он внимательно и последовательно изучает каждую сторону нашего «светлого будущего»: от мировой экономики до новой человеческой идентичности. Уже поздно обсуждать, хорош или плох будет мир в этом очень недалеком будущем. Сейчас главное – понять, как к нему готовиться.

Тоби Уолш

Зарубежная образовательная литература, зарубежная прикладная, научно-популярная литература / Учебная и научная литература / Образование и наука

Похожие книги