Читаем 2062: время машин полностью

Однако ООН, к ее стыду, отказалась принять пожертвование, которое оплатило бы августовскую встречу. Организация сказала, что принимает деньги только от правительств – сюда, правда, не очень вписывается тот факт, что в конце 1990-х она приняла миллиарды долларов от Теда Тёрнера. В итоге из-за недостачи в четверть миллиона долларов проблема осталась необсужденной.

С целью пролить свет на эти задержки я решил действовать публично. К тому времени против автономных систем вооружения публично высказалась только одна компания – канадская фирма Clearpath Robotics. Поэтому я попросил основателей более ста компаний в сфере искусственного интеллекта и робототехники подписать второе открытое письмо, для того чтобы КНО приняла меры против роботов-убийц.

Мы снова опубликовали письмо к открытию главного съезда в сфере ИИ – Международной совместной конференции по искусственному интеллекту, которая проходила в Мельбурне. По чистой случайности конференция началась в тот самый день в августе 2017 года, когда должна была начаться первая встреча ГПЭ.

Это второе письмо подписали Демис Хассабис и Мустафа Сулейман – основатели DeepMind, а также многие другие известные в области ИИ и робототехники люди. Среди них, например, Джеффри Хинтон и Йошуа Бенджио, создатели глубинного обучения, плюс Илон Маск в качестве основателя компании OpenAI.

Как и первое письмо, оно привлекло много внимания в прессе. Все это показало, что и индустрия, и научное сообщество поддерживают идею регулирования подобных технологий. В нем также содержалась фраза, которую часто повторяли в прессе: «Если откроется этот ящик Пандоры, его будет очень сложно закрыть».

В конце 2017 года я и еще 137 основателей компаний, занимающихся искусственным интеллектом и робототехникой, которые подписали второе письмо, были выдвинуты в качестве кандидатов на ежегодную премию «Человек года» Ассоциации по контролю над вооружениями за наш существенный вклад в разоружение.

Победителями по праву стали дипломаты, которые договорились о запрете ядерного оружия в ООН. Однако приятно было видеть, что проблема автономных систем вооружения принимается всерьез[62].

Даже некоторые оружейные компании могут видеть в этом запрете выгоды. BAE Systems – один из самых крупных экспортеров оружия, а также компания, создающая прототипы автономных систем нового поколения. На Мировом экономическом форуме в 2016 году председатель совета директоров компании сэр Джон Карр заявил, что автономные системы вооружения не смогут следовать законам войны. Поэтому он призвал правительства их ограничить.

Растущее давление

Двадцать три страны призвали ООН запретить смертоносное автономное оружие. Среди них Алжир, Аргентина, Австрия, Боливия, Бразилия, Чили, Коста-Рика, Куба, Эквадор, Египет, Гана, Гватемала, Ватикан, Ирак, Мексика, Никарагуа, Пакистан, Панама, Перу, Палестина, Уганда, Венесуэла и Зимбабве. Вдобавок Африканский союз призвал к упреждающему запрету. Недавно Китай призвал к запрету использования (но не разработки или развертывания) полностью автоматического оружия.

Нам все еще далеко до большинства голосов в ООН, а уж тем более до консенсуса. На данный момент страны, поддержавшие запрет, в основном из тех, что скорее других могут пострадать от этих ужасных орудий. Тем не менее растет согласие по поводу того, что за каждой атакой должен стоять «осмысленный человеческий контроль». Это потребует от технологии предсказуемости, от пользователя – владения важной информацией, способности вовремя вынести правильное суждение и принять нужное решение.

Другие страны начинают сталкиваться с давлением в этом вопросе. В ноябре 2017 года, прямо перед ГПЭ, учрежденной для решения данной проблемы и впервые собравшейся в ООН, премьер-министр Австралии получил письмо, призывающее правительство стать еще одним государством, которое поддержит упреждающий запрет. Письмо было подписано более чем сотней исследователей в области ИИ и робототехники из университетов по всей Австралии. Для полной ясности: я написал это письмо и организовал его подписание.

Премьер-министр Канады получил похожую петицию, подписанную более чем двумя сотнями канадских исследователей ИИ; его организовал мой коллега Иан Керр, который отвечает в организации Canada Research Chair за этику, право и технологии в Оттавском университете.

Австралийское письмо гласит, что САО, за которой нет осмысленного человеческого контроля, находится по ту сторону очевидной нравственной черты. Оно просит наше правительство поддержать призыв к запрету подобного оружия. «Таким образом, наше правительство может восстановить свои позиции морального лидерства на мировой арене, которые оно занимало и ранее в таких вопросах, как, например, нераспространение ядерного оружия», – говорится в письме. Канадский вариант содержит схожие настроения.

Перейти на страницу:

Все книги серии Технологии и бизнес

Технологии против человека
Технологии против человека

Технологии захватывают мир, и грани между естественным и рукотворным становятся все тоньше. Возможно, через пару десятилетий мы сможем искать информацию в интернете, лишь подумав об этом, – и жить многие сотни лет, искусственно обновляя своё тело. А если так случится – то что будет с человечеством? Что, если технологии избавят нас от необходимости работать, от старения и болезней? Всемирно признанный футуролог Герд Леонгард размышляет, как изменится мир вокруг нас и мы сами. В основу этой книги легло множество фактов и исследований, с помощью которых автор предсказывает будущее человечества. Разумеется, сколь бы ни были точны прогнозы, мы не сможем заранее узнать, как именно изменятся люди нового мира, как будут относиться к себе и друг к другу. Но к цивилизации будущего имеет смысл готовиться уже сейчас!Герд Леонгард входит в сотню главных лидеров мнений в Европе по версии Wired Magazine. The Wall Street Journal назвал Леонгарда одним из ведущих технологических футуристов в мире.

Герд Леонгард

Зарубежная образовательная литература, зарубежная прикладная, научно-популярная литература / Прочая научная литература / Образование и наука
2062: время машин
2062: время машин

2062 год – что это за дата? Ведущие эксперты по искусственному интеллекту и робототехнике предсказывают: в 2062 году мы сможем создать искусственный разум, который превзойдет возможности человека. Еще в начале 1990-х Гарри Каспаров уверен, что «в классических шахматах на серьёзном уровне компьютерам ничего не светит в XX веке»… и в 1997 году проигрывает компьютеру Deep Blue. А двадцать лет спустя AlphaGo выигрывает партию у лучшего в мире игрока в го. В интервью ВВС Стивен Хокинг заметил, что «полноценный искусственный интеллект может стать концом человеческой расы, поскольку будет самостоятельно и стремительно совершенствоваться, а люди, зависящие от медленной биологической эволюции, неспособны с ним конкурировать». Так ли это? Что же нас ждет теперь? На этот вопрос отвечает Тоби Уолш, признанный специалист по искусственному интеллекту. В своей книге он внимательно и последовательно изучает каждую сторону нашего «светлого будущего»: от мировой экономики до новой человеческой идентичности. Уже поздно обсуждать, хорош или плох будет мир в этом очень недалеком будущем. Сейчас главное – понять, как к нему готовиться.

Тоби Уолш

Зарубежная образовательная литература, зарубежная прикладная, научно-популярная литература / Учебная и научная литература / Образование и наука

Похожие книги