Читаем Российская Академия Наук полностью

19. Yudkowsky E. Artificial Intelligence as a Positive and Negative Factor in Global Risk. Forthcoming in Global Catastrophic Risks, eds. Nick Bostrom and Milan Cirkovic, – UK, Oxford University Press, to appear 2007 (русский перевод: Э.Юдковский. Искусственный интеллект как позитивный и негативный фактор глобального риска. Пер. с англ. А.В. Турчина http://www.proza.ru/texts/2007/03/22-285.html)

20. Yudkowsky E. Cognitive biases potentially affecting judgment of global risks. Forthcoming in Global Catastrophic Risks, eds. Nick Bostrom and Milan Cirkovic, – UK, Oxford University Press, to appear 2007 (русский перевод: Э.Юдковский. Систематические ошибки в рассуждениях, потенциально влияющие на оценку глобальных рисков. http://www.proza.ru/texts/2007/03/08-62.html )




Е. Юдковски

Искусственный интеллект, как позитивный и негативный фактор глобального риска

Перевод с английского А.В. Турчина.


Введение

До сих пор основной опасностью искусственного интеллекта (ИИ) было то, что люди слишком рано делали вывод, что они его понимают. Разумеется, эта проблема не ограничена ИИ. Жак Моно пишет: «Забавным аспектом теории эволюции является то, что каждый думает, что понимает её» (Monod 1974). Мой отец, физик, жаловался на людей, придумывавших свои собственные физические теории: «Интересно знать, почему люди не придумывают свои собственные теории химии?» (Но они делают.) Тем не менее, проблема является особенно актуальной в области ИИ. Наука об ИИ печально известна тем, что она даёт огромные обещания и не исполняет их. Большинство наблюдателей считают, что ИИ сложен, и это на самом деле так. Но запутанность не происходит из сложности. Сложно сделать звезду из водорода, но звездная астрофизика не имеет дурной славы обещать сделать звезду и затем не смочь. Критическим выводом является не то, что ИИ сложен, а то, что, по неким причинам, людям очень легко думать, что они знают об Искусственном Интеллекте гораздо больше, чем на самом деле.

В моей другой статье о рисках глобальной катастрофы «Систематические ошибки мышления, потенциально влияющие на суждения о глобальных рисках», я начинаю с замечания, что немногие люди предпочли бы нарочно уничтожить мир; сценарий же уничтожения Земли по ошибке кажется мне очень беспокоящим. Немногие люди нажмут кнопку, которая, как они точно знают, вызовет глобальную катастрофу. Но если люди склонны быть абсолютно уверены, что кнопка делает нечто, совершенно отличное от её реального действия, это действительно причина для тревоги.

Гораздо труднее писать о глобальных рисках искусственного интеллекта, чем о систематических ошибках мышления. Ошибки мышления – это твёрдо установленное знание; достаточно процитировать литературу. ИИ – это не твёрдо установленное знание; ИИ относится к передовым исследованиям, а не к учебникам. И, по причинам, объясняющимся в следующей главе, проблема глобальных рисков в связи с искусственным интеллектом фактически не обсуждается в существующей технической литературе.

Я вынужден анализировать тему со своей точки зрения, делать мои собственные выводы и делать всё, от меня зависящее, чтобы доказать их в ограниченном пространстве этой статьи.

Дело не в том, что я пренебрегаю необходимостью цитировать существующие источники на эту тему, но в том, что таких источников, несмотря на все мои попытки их найти, обнаружить не удалось (на январь 2006 года).

Соблазнительно игнорировать ИИ в этой книге (имеется в виду книга «Риски глобальной катастрофы», в которой в 2007 году в Оксфорде выходят обе статьи Юдковского – прим. пер.), потому что это наиболее трудная тема для обсуждения. Мы не можем обратиться к статистическим данным, чтобы вычислить маленькую годовую вероятность катастрофы, как в случае астероидных ударов. Мы не можем использовать вычисления на основании точных, точно подтверждённых моделей, чтобы исключить некие события или установить бесконечно малые верхние границы их вероятности, как в случае возможных физических катастроф. Но это делает катастрофы с ИИ ещё более беспокоящими, а не менее.

Эффекты систематических ошибок мышления, как оказалось, имеют тенденцию увеличиваться при недостатке времени, занятости ума или недостатке информации. Это говорит, что чем труднее аналитическая задача, тем важнее избежать или ослабить систематическую ошибку. Поэтому я усиленно рекомендую прочесть статью «Систематические ошибки мышления, потенциально влияющие на оценку глобальных рисков» (вышла на русском в первом томе серии «Диалоги о будущем» и доступна в Интернете - прим. пер.) до прочтения этой статьи.

1. Систематическая ошибка, связанная с антропоморфизмом.

Когда нечто очень широко распространено в нашей повседневной жизни, мы принимаем это как само собой разумеющееся вплоть до того, что забываем о существовании этого. Представьте себе сложную биологическую адаптацию, состоящую из 10 необходимых частей.

Перейти на страницу:

Похожие книги

Отмытый роман Пастернака: «Доктор Живаго» между КГБ и ЦРУ
Отмытый роман Пастернака: «Доктор Живаго» между КГБ и ЦРУ

Пожалуй, это последняя литературная тайна ХХ века, вокруг которой существует заговор молчания. Всем известно, что главная книга Бориса Пастернака была запрещена на родине автора, и писателю пришлось отдать рукопись западным издателям. Выход «Доктора Живаго» по-итальянски, а затем по-французски, по-немецки, по-английски был резко неприятен советскому агитпропу, но еще не трагичен. Главные силы ЦК, КГБ и Союза писателей были брошены на предотвращение русского издания. Американская разведка (ЦРУ) решила напечатать книгу на Западе за свой счет. Эта операция долго и тщательно готовилась и была проведена в глубочайшей тайне. Даже через пятьдесят лет, прошедших с тех пор, большинство участников операции не знают всей картины в ее полноте. Историк холодной войны журналист Иван Толстой посвятил раскрытию этого детективного сюжета двадцать лет...

Иван Никитич Толстой , Иван Толстой

Публицистика / Документальное / Биографии и Мемуары
10 заповедей спасения России
10 заповедей спасения России

Как пишет популярный писатель и публицист Сергей Кремлев, «футурологи пытаются предвидеть будущее… Но можно ли предвидеть будущее России? То общество, в котором мы живем сегодня, не устраивает никого, кроме чиновников и кучки нуворишей. Такая Россия народу не нужна. А какая нужна?..»Ответ на этот вопрос содержится в его книге. Прежде всего, он пишет о том, какой вождь нам нужен и какую политику ему следует проводить; затем – по каким законам должна строиться наша жизнь во всех ее проявлениях: в хозяйственной, социальной, культурной сферах. Для того чтобы эти рассуждения не были голословными, автор подкрепляет их примерами из нашего прошлого, из истории России, рассказывает о базисных принципах, на которых «всегда стояла и будет стоять русская земля».Некоторые выводы С. Кремлева, возможно, покажутся читателю спорными, но они открывают широкое поле для дискуссии о будущем нашего государства.

Сергей Кремлёв , Сергей Тарасович Кремлев

Публицистика / Документальное
10 дней в ИГИЛ* (* Организация запрещена на территории РФ)
10 дней в ИГИЛ* (* Организация запрещена на территории РФ)

[b]Организация ИГИЛ запрещена на территории РФ.[/b]Эта книга – шокирующий рассказ о десяти днях, проведенных немецким журналистом на территории, захваченной запрещенной в России террористической организацией «Исламское государство» (ИГИЛ, ИГ). Юрген Тоденхёфер стал первым западным журналистом, сумевшим выбраться оттуда живым. Все это время он буквально ходил по лезвию ножа, общаясь с боевиками, «чиновниками» и местным населением, скрываясь от американских беспилотников и бомб…С предельной честностью и беспристрастностью автор анализирует идеологию террористов. Составив психологические портреты боевиков, он выясняет, что заставило всех этих людей оставить семью, приличную работу, всю свою прежнюю жизнь – чтобы стать врагами человечества.

Юрген Тоденхёфер

Документальная литература / Публицистика / Документальное