Возможно, именно мы сами начинаем понимать причины в раннем детстве. У нас в сознании присутствует что-то вроде генератора намерений, который говорит нам, что мы должны предпринять действие
Вдохновленный этими возможностями, я считаю, что сильный ИИ с пониманием причин и способностями к самостоятельным действиям — это реально. И отсюда вытекает вопрос, который писатели-фантасты задают с 1950-х годов: стоит ли нам волноваться? Является ли сильный ИИ ящиком Пандоры, который мы не должны открывать?
Недавно публичные персоны вроде Илона Маска и Стивена Хокинга заявили, что у нас есть причины беспокоиться. Маск написал в «Твиттере», что ИИ «потенциально опаснее ядерного оружия». В 2015 году на веб-сайте Джона Брокмана Edge.org был задан ежегодный вопрос, и он выглядел так: «Что вы думаете о машинах, которые думают?». На него дали 186 вдумчивых и провокационных ответов, которые потом были собраны в книге под названием «Что думать о машинах, которые думают»
Намеренно расплывчатый вопрос Брокмана подразделяется как минимум на пять связанных между собой:
1. Мы уже создали мыслящие машины?
2. Можем ли мы создать мыслящие машины?
3. Будем ли мы создавать мыслящие машины?
4. Стоит ли создавать мыслящие машины?
И наконец, незаданный вопрос, который лежит в основе наших тревог:
5. Можем ли мы создать машины, способные отличать добро и зло?
Ответ на первый вопрос будет отрицательным, но я полагаю, что на все остальные можно ответить утвердительно. Мы точно еще не создали машины, которые думают, интерпретируя мир как люди. До этого момента реально всего лишь симулировать человеческое мышление в узко определенных областях, где есть только самые примитивные каузальные структуры. Для них действительно удается создавать машины, которые превосходят людей, но это не должно удивлять, ведь в этих областях вознаграждается единственная вещь, которую компьютеры делают хорошо, а именно вычисления.
Ответ на второй вопрос почти точно положительный, если определять способность думать как способность пройти тест Тьюринга. Я утверждаю это на основании того, что мы извлекли из мини-теста Тьюринга. Умение отвечать на запросы на всех трех уровнях Лестницы Причинности создает основу для «самосознающего» ПО, которое позволяет машине думать о своих намерениях и размышлять о своих ошибках. Алгоритмы для ответа на каузальные и контрфактивные запросы уже существуют (во многом благодаря моим студентом), и чтобы их внедрить, не хватает только трудолюбивых исследователей искусственного интеллекта.
Третий вопрос, конечно, зависит от событий в человеческой истории, которые трудно предсказать. Но исторически люди редко отказывались от того, чтобы создавать или практиковать вещи, если это позволяет развитие техники. Отчасти это объясняется тем, что мы не в состоянии узнать, на что способны наши технологии, пока не используем их на практике, будь то клонирование животных или отправка людей на Луну. Однако поворотным пунктом в этом процессе стал взрыв атомной бомбы: многие люди считают, что эту технологию лучше было бы не создавать.
Хороший пример того, как ученые отказались от вполне возможного на практике в послевоенный период, подала Асиломарская конференция 1975 года о рекомбинации ДНК — новой технологии, которая освещалась в СМИ в весьма апокалиптических тонах. Ученым, работающим в этой области, удалось прийти к консенсусу относительно разумных методов обеспечения безопасности, и достигнутое ими тогда согласие сохранялось в течение следующих четырех десятилетий. Сейчас рекомбинантная ДНК — обычная зрелая технология.