Читаем Российская Академия Наук полностью

Но что если я попытаюсь изменить себя и сделаю ошибку? Когда компьютерные инженеры доказывают пригодность чипа – что есть хорошая идея, если в чипе 155 миллионов транзисторов, и вы не можете выпустить потом заплатку – инженеры используют руководимую человеком и исполняемую машинами формальную проверку. Замечательным свойством формального математического доказательства является то, что доказательство из 10 миллиардов шагов в той же мере надёжно, что и доказательство из 10 шагов. Но человеческие существа недостойны доверия в том, чтобы следить за проверкой из 10 миллиардов шагов; у нас слишком высокие шансы пропустить ошибку. Современные техники доказывания теорем не достаточно умны сами по себе, чтобы спроектировать и проверить целый компьютерный чип – современные алгоритмы испытывают экспоненциальный рост по мере увеличения пространства поиска. Люди-математики могут доказывать теоремы гораздо более сложные, чем те, что могут осилить современные программы-доказыватели, без того, чтобы быть поверженными экспоненциальным взрывам. Но люди-математики неформальны и ненадёжны; время от времени кто-то находит ошибку в принятом ранее неформальном доказательстве. Выход состоит в том, что люди-инженеры направляют программы-доказыватели на промежуточные шаги доказательства. Человек выбирает следующую лемму, и сложный доказыватель теорем генерирует формальное доказательство, и простой проверяльщик сверяет шаги. Таким образом современные инженеры создают надёжные механизмы со 155 миллионами независимых частей.

Проверка корректности работы компьютерного чипа требует синергии человеческого интеллекта и компьютерных алгоритмов, поскольку сейчас ни того, ни другого недостаточно. Возможно, подлинный ИИ будет использовать подобную комбинацию способностей, когда будет модифицировать свой собственный код – будет обладать как способностью выполнять объёмные проекты без того, чтобы потерпеть поражение от экспоненциального роста, так и способностью проверить свои шаги с высокой надёжностью. Это один из путей, которым подлинный ИИ может оставаться познаваемо стабильным в своих целях даже после выполнения большого количества самоисправлений.

Эта статья не будет разъяснять приведённую выше идею в деталях. (Также см. (Schmidhuber, 2003) на связанную с данной тему.) Но следует подумать об этом вызове, и изучить его с привлечением наилучших доступных технических данных, до того, как объявлять его невозможным – особенно, если большие ставки зависят от ответа. Неуважительно по отношению к человеческой изобретательности объявлять проблему неразрешимой без внимательного и творческого рассмотрения. Это очень сильное заявление: сказать, что вы не можете сделать нечто – что вы не можете построить летающую машину тяжелее воздуха, что вы не можете извлечь полезную энергию из ядерных реакций, что вы не можете летать на Луну. Такие заявления являются универсальными обобщениями, относящимися к любому возможному подходу к решению этой проблемы, который кто-либо придумал или придумает. Требуется всего один противоположный пример, чтобы опровергнуть универсальное обобщение. Утверждение о том, что Дружественный (или дружественный) ИИ теоретически невозможен, осмеливается относиться к любым возможным устройствам ума и любым возможным процессам оптимизации – включая человеческие существа, которые тоже имеют ум, и многие из которых добрые и хотят быть ещё лучше. На настоящий момент имеется неограниченное количество расплывчато убедительных аргументов, почему Дружественный ИИ может быть не под силу человеку, и всё же гораздо вероятнее, что проблема разрешима, но никто не соберётся решить её вовремя. Но не следует слишком быстро списывать проблему, особенно учитывая масштаб ставок.

6. Техническая неудача и философская неудача.

Бостром (Bostrom, 2001) определяет глобальную окончательную катастрофу как такую катастрофу, которая полностью истребляет возникшую на Земле разумную жизнь или необратимо повреждает часть её потенциала. Мы можем разделить потенциальные ошибки в попытках создания Дружественного ИИ на две неформальные категории, техническую ошибку и философскую ошибку. Техническая состоит в том, что вы пытаетесь создать ИИ, и он не работает так, как должен – вы не смогли понять, как работает на самом деле ваш собственный код. Философская неудача заключается в попытке построить неправильную вещь, так что даже если вы достигните успеха, вы всё равно не сможете никому помочь или облагодетельствовать человечество. Нет необходимости говорить о том, что одна ошибка не исключает другую.

Граница между двумя случаями тонка, поскольку большинство философских ошибок гораздо легче объяснить при наличии технического знания. В теории вы должны сначала заявить, что именно вы хотите, а затем обрисовать, как вы это достигните. На практике часто требуется глубокое техническое понимание, чтобы очертить то, что вы хотите.

6.1. Пример философской ошибки.

Перейти на страницу:

Похожие книги

Отмытый роман Пастернака: «Доктор Живаго» между КГБ и ЦРУ
Отмытый роман Пастернака: «Доктор Живаго» между КГБ и ЦРУ

Пожалуй, это последняя литературная тайна ХХ века, вокруг которой существует заговор молчания. Всем известно, что главная книга Бориса Пастернака была запрещена на родине автора, и писателю пришлось отдать рукопись западным издателям. Выход «Доктора Живаго» по-итальянски, а затем по-французски, по-немецки, по-английски был резко неприятен советскому агитпропу, но еще не трагичен. Главные силы ЦК, КГБ и Союза писателей были брошены на предотвращение русского издания. Американская разведка (ЦРУ) решила напечатать книгу на Западе за свой счет. Эта операция долго и тщательно готовилась и была проведена в глубочайшей тайне. Даже через пятьдесят лет, прошедших с тех пор, большинство участников операции не знают всей картины в ее полноте. Историк холодной войны журналист Иван Толстой посвятил раскрытию этого детективного сюжета двадцать лет...

Иван Никитич Толстой , Иван Толстой

Публицистика / Документальное / Биографии и Мемуары
10 заповедей спасения России
10 заповедей спасения России

Как пишет популярный писатель и публицист Сергей Кремлев, «футурологи пытаются предвидеть будущее… Но можно ли предвидеть будущее России? То общество, в котором мы живем сегодня, не устраивает никого, кроме чиновников и кучки нуворишей. Такая Россия народу не нужна. А какая нужна?..»Ответ на этот вопрос содержится в его книге. Прежде всего, он пишет о том, какой вождь нам нужен и какую политику ему следует проводить; затем – по каким законам должна строиться наша жизнь во всех ее проявлениях: в хозяйственной, социальной, культурной сферах. Для того чтобы эти рассуждения не были голословными, автор подкрепляет их примерами из нашего прошлого, из истории России, рассказывает о базисных принципах, на которых «всегда стояла и будет стоять русская земля».Некоторые выводы С. Кремлева, возможно, покажутся читателю спорными, но они открывают широкое поле для дискуссии о будущем нашего государства.

Сергей Кремлёв , Сергей Тарасович Кремлев

Публицистика / Документальное
10 дней в ИГИЛ* (* Организация запрещена на территории РФ)
10 дней в ИГИЛ* (* Организация запрещена на территории РФ)

[b]Организация ИГИЛ запрещена на территории РФ.[/b]Эта книга – шокирующий рассказ о десяти днях, проведенных немецким журналистом на территории, захваченной запрещенной в России террористической организацией «Исламское государство» (ИГИЛ, ИГ). Юрген Тоденхёфер стал первым западным журналистом, сумевшим выбраться оттуда живым. Все это время он буквально ходил по лезвию ножа, общаясь с боевиками, «чиновниками» и местным населением, скрываясь от американских беспилотников и бомб…С предельной честностью и беспристрастностью автор анализирует идеологию террористов. Составив психологические портреты боевиков, он выясняет, что заставило всех этих людей оставить семью, приличную работу, всю свою прежнюю жизнь – чтобы стать врагами человечества.

Юрген Тоденхёфер

Документальная литература / Публицистика / Документальное