Читаем 2062: время машин полностью

Тому, что роботы сначала появились, например, на заводах по производству автомобилей, есть хорошее объяснение. На заводе можно контролировать обстановку. Человек решает, куда кому или чему идти. Робота даже можно поместить в клетку, чтобы защитить тех, кто находится поблизости. Поле боя – совершенно другая среда, полная неопределенности и неоднозначности. Совсем не то место, где мы хотели бы видеть роботов, способных убивать.

В ноябре 2016 года расследование операций США против «Аль-Каиды» и «Талибана», проведенное журналом The Intercept, показало, что почти девять из каждых десяти людей, погибших после атаки дронов, не были целью атаки. Напомню, что это происходит при том, что человек все еще контролирует ситуацию и знает о ней больше, чем машина. Этот человек и принимает окончательное решение. Если бы вы попросили меня как специалиста в области технологий заменить человека, который управляет дроном, на компьютер, я был бы доволен, если бы он показал такой же результат. Боюсь, что компьютер ошибался бы почти каждый раз.

Вероятность ошибки усиливается еще и за счет большей скорости такого оружия. Даже если им управляет человек, машина может действовать слишком быстро для того, чтобы он успел вмешаться и предотвратить ошибку. Такие системы вооружений способны вести себя непредсказуемо. Как и на фондовой бирже, они могут попасть в неожиданные петли обратной связи. Однако, в отличие от фондовой биржи, результаты могут быть фатальными. Может случиться так, что мы окажемся посреди военных вспышек, которые не планировали.

Ошибки создают дополнительную проблему: «пробелы в привлечении к ответственности». Кто отвечает за ошибки автономных систем вооружения? Кто предстанет перед трибуналом? Кого будут преследовать за военные преступления в Гаагском суде? Пробел в привлечении к ответственности особенно велик тогда, когда оружие использует алгоритмы машинного обучения, чтобы научиться опознавать и выслеживать цели. В таком случае изготовитель не может запрограммировать поведение оружия. Оно учится само. И то, чему оно учится, зависит от входных данных.

Еще хуже то, что военные могут поддаться соблазну позволить системам вооружения обучаться на поле боя. Если этого не произойдет, неприятель быстро найдет способ ввести в ступор ограниченную программу. Для того чтобы это предотвратить, противники захотят, чтобы их автономные системы вооружения адаптировались к действиям врага так же, как человек. Однако если автономная система учится, решительный враг может найти способы заставить ее нейтрализовать угрозу. Даже может найти способы обратить систему против того, кто ею управляет. Кто тогда будет отвечать за ее ошибки?

Геополитическая стабильность

На стратегическом уровне САО также представляет угрозу стабильности современных напряженных отношений между, например, Северной и Южной Кореей. От роя маленьких, незаметных и автономных дронов сегодня сложно защититься. Угроза, которую они представляют, может спровоцировать одну из сторон на неожиданное нападение. Страх такой атаки, так же как и невозможность ее отражения, способны повысить вероятность применения большей силы, вплоть до ядерного оружия.

Таким образом, САО рискует нарушить нынешний баланс военной мощи. Государству будет необязательно иметь статус экономической сверхдержавы, чтобы содержать огромную и смертоносную армию. Этого получится достичь гораздо более скромными средствами. САО станет автоматами Калашникова будущего. В отличие от ядерного оружия, его легко производить и оно дешевое. Оно появится на черном рынке по всему миру.

Это не значит, что автономные системы вооружения нельзя будет запретить. Химическое оружие тоже не требует больших затрат, и его легко изготовить, однако мы его запретили. Нам не придется разрабатывать собственные автономные системы вооружения в качестве противовеса на случай, если кто-то нарушит запрет, как это произошло с ядерным оружием. У нас уже есть достаточно военных, экономических и дипломатических противовесов для тех, кто решит нарушить международные договоры о смертоносном автономном оружии.

Призыв к оружию

В июле 2015 года я, Макс Тегмарк и Стюарт Рассел были настолько обеспокоены развитием этой сферы, что попросили тысячу наших коллег, исследователей в области искусственного интеллекта и робототехники, подписать открытое письмо, призывающее ООН запретить автономные системы вооружения. Письмо было обнародовано в начале главной международной конференции, посвященной ИИ, Международной совместной конференции по искусственному интеллекту[60].

Тысяча подписей – это хорошее круглое число, которое к тому же представляет существенную долю сообщества исследователей ИИ. Для контекста: на конференции ожидалось примерно такое же количество докладчиков. К концу первого дня число подписей увеличилось в два раза и продолжило увеличиваться на протяжении всей той недели, которую длилась конференция.

Перейти на страницу:

Все книги серии Технологии и бизнес

Технологии против человека
Технологии против человека

Технологии захватывают мир, и грани между естественным и рукотворным становятся все тоньше. Возможно, через пару десятилетий мы сможем искать информацию в интернете, лишь подумав об этом, – и жить многие сотни лет, искусственно обновляя своё тело. А если так случится – то что будет с человечеством? Что, если технологии избавят нас от необходимости работать, от старения и болезней? Всемирно признанный футуролог Герд Леонгард размышляет, как изменится мир вокруг нас и мы сами. В основу этой книги легло множество фактов и исследований, с помощью которых автор предсказывает будущее человечества. Разумеется, сколь бы ни были точны прогнозы, мы не сможем заранее узнать, как именно изменятся люди нового мира, как будут относиться к себе и друг к другу. Но к цивилизации будущего имеет смысл готовиться уже сейчас!Герд Леонгард входит в сотню главных лидеров мнений в Европе по версии Wired Magazine. The Wall Street Journal назвал Леонгарда одним из ведущих технологических футуристов в мире.

Герд Леонгард

Зарубежная образовательная литература, зарубежная прикладная, научно-популярная литература / Прочая научная литература / Образование и наука
2062: время машин
2062: время машин

2062 год – что это за дата? Ведущие эксперты по искусственному интеллекту и робототехнике предсказывают: в 2062 году мы сможем создать искусственный разум, который превзойдет возможности человека. Еще в начале 1990-х Гарри Каспаров уверен, что «в классических шахматах на серьёзном уровне компьютерам ничего не светит в XX веке»… и в 1997 году проигрывает компьютеру Deep Blue. А двадцать лет спустя AlphaGo выигрывает партию у лучшего в мире игрока в го. В интервью ВВС Стивен Хокинг заметил, что «полноценный искусственный интеллект может стать концом человеческой расы, поскольку будет самостоятельно и стремительно совершенствоваться, а люди, зависящие от медленной биологической эволюции, неспособны с ним конкурировать». Так ли это? Что же нас ждет теперь? На этот вопрос отвечает Тоби Уолш, признанный специалист по искусственному интеллекту. В своей книге он внимательно и последовательно изучает каждую сторону нашего «светлого будущего»: от мировой экономики до новой человеческой идентичности. Уже поздно обсуждать, хорош или плох будет мир в этом очень недалеком будущем. Сейчас главное – понять, как к нему готовиться.

Тоби Уолш

Зарубежная образовательная литература, зарубежная прикладная, научно-популярная литература / Учебная и научная литература / Образование и наука

Похожие книги

Бессмертные. Почему гидры и медузы живут вечно, и как людям перенять их секрет
Бессмертные. Почему гидры и медузы живут вечно, и как людям перенять их секрет

Мало кто знает, что в мире существует две формы бессмертия. Первая – та самая, которой пользуемся мы с вами и еще 99% видов планеты Земля, – сохранение ДНК через создание потомства.Вторая – личное бессмертие. К примеру, некоторые черепахи и саламандры, риск смерти которых одинаков вне зависимости от того, сколько им лет. Они, безусловно, могут погибнуть – от зубов хищника или вследствие несчастного случая. Но вот из-за старости… Увольте!Мы привыкли думать, что самая частая причина смерти – это рак или болезни сердца, но это не совсем так. Старение – неизбежное увядание человеческого организма – вот самая распространенная причина смерти. Если с болезнью мы готовы бороться, то процесс старения настолько глубоко укрепился в человеческом опыте, что мы воспринимаем его как неизбежность.Эндрю Стил, научный исследователь, говорит об обратном – старение не является необратимой аксиомой. Автор погружает нас в удивительное путешествие по научной лаборатории: открытия, совершающиеся в ней, способны совершить настоящую революцию в медицине!Как выработать режим, способный предотвратить упадок собственного тела?Эта книга рассказывает о новых достижениях в области биологии старения и дарит надежду на то, что мы с вами уже доживем до «таблетки молодости».В формате PDF A4 сохранен издательский макет книги.

Эндрю Стил

Зарубежная образовательная литература, зарубежная прикладная, научно-популярная литература / Учебная и научная литература / Образование и наука