М. Ф.
: Получается, что каузальная модель – это просто гипотеза. У каждого человека может быть своя модель, и где-то в мозге некий механизм непрерывно генерирует такие модели, что дает возможность делать умозаключения на основе данных.Дж. П.
: Людям нужно создавать такие модели, модифицировать их и искажать, когда в этом возникает необходимость. Скажем, раньше причиной малярии считался плохой воздух. Теперь мы считаем, что ее переносит малярийный комар. И это имеет значение, потому что, если я захочу пойти на болота, в первом случае мне понадобится дыхательная маска, а во втором – противомоскитная сетка. Мои действия зависят от того, в какую теорию я верю. Переход от одной гипотезы к другой происходит методом проб и ошибок.Таким способом мы познаем причинно-следственную связь. Но нам нужны способности и шаблон для хранения полученной информации, чтобы ее можно было использовать, тестировать и изменять. Соответственно, мы должны научиться программировать компьютеры таким образом, чтобы они получали этот шаблон и могли им управлять.
М. Ф.
: Компания DeepMind использует обучение с подкреплением, которое происходит методом проб и ошибок. Можно ли таким способом обнаружить причинно-следственные связи?Дж. П.
: Обучение с подкреплением позволяет научить только уже известным вещам. Смоделировать гипотетическую ситуацию машина не может.М. Ф.
: Способность прослеживать причинно-следственные связи важна для достижения сильного ИИ?Дж. П.
: Я не сомневаюсь, что это необходимое условие, но не знаю, является ли оно достаточным. Вряд ли причинное осмысление поможет решить все проблемы сильного ИИ. Например, оно не решает проблему распознавания объектов и понимания языка. По сути, задача отслеживания причинно-следственных связей уже решена, что сможет помочь нам в преодолении препятствий, мешающих решить другие задачи.М. Ф.
: Вы считаете, что сильный ИИ возможен?Дж. П.
: Я в этом не сомневаюсь, потому что не вижу теоретических препятствий для его создания.М. Ф.
: Вы упоминали, что разговоры о сильном ИИ велись еще в 1961 г., когда вы работали в RCA. Как вы оцениваете прогресс в этой области? Разочарованы?Дж. П.
: Все идет отлично. Сейчас прогресс замедлен из-за концентрации на глубоком обучении и связанных с ним непрозрачных структурах. Нужно освободиться от философии, ориентированной на данные. В целом на развитие ИИ повлияют люди, а эта сфера привлекает самых умных.М. Ф.
: Но последние успехи в ИИ связаны с глубоким обучением, которое вы критикуете, сравнивая с подгонкой функций к данным и с «черным ящиком», который просто генерирует ответы.Дж. П.
: Да, по сути, сейчас в этой сфере собирают те плоды, которые висят совсем низко.М. Ф.
: Но даже эти результаты весьма впечатляют.Дж. П.
: Это происходит просто потому, что никто не предвидел такого количества низко висящих фруктов.М. Ф.
: Возрастет ли в будущем важность нейронных сетей?Дж. П.
: При правильном использовании нейронные сети и обучение с подкреплением могут стать важными компонентами причинного моделирования.М. Ф.
: То есть, возможно, появится гибридная система, включающая в себя не только нейронные сети, но и идеи из других областей ИИ?Дж. П.
: Гибридные системы создаются уже сейчас, несмотря на малое количество данных. Другое дело, что для получения причинно-следственных связей экстраполировать или интерполировать разреженные данные можно только до определенного предела. Даже бесконечные данные не позволяют определить, в чем разница между «A вызывает Б» и «Б вызывает A».М. Ф.
: Если когда-нибудь мы создадим сильный ИИ, будет ли он обладать сознанием и иметь какой-то опыт, подобный человеческому?Дж. П.
: Разумеется, каждая машина имеет своего рода внутренний опыт. Она должна иметь некое представление о своем программном обеспечении, но не может полностью быть в курсе своей архитектуры, так как это противоречит доказанной Тьюрингом проблеме остановки. Но машине целесообразно иметь представление о своих важных связях и модулях. Она должна иметь код своих способностей, убеждений, целей и желаний. И это вполне реально. В каком-то смысле машина уже обладает внутренней сущностью, так как имеет представление об окружающей среде, способна реагировать на происходящее и отвечать на гипотетические вопросы.М. Ф.
: А что вы думаете об эмоциональном опыте? Может ли машина чувствовать себя счастливой или по какой-то причине страдать?Дж. П.
: Это напоминает мне книгу Марвина МинскогоМ. Ф.
: О чем имеет смысл беспокоиться по мере развития ИИ?