М. Ф.: Какие препятствия нужно преодолеть на пути к сильному ИИ?
Д. Х.: Эти вещи мы определили с самого начала работы DeepMind. Во-первых, это получение абстрактных, концептуальных знаний с последующим переносом обучения. Люди достаточно легко переносят свои знания из одной области в другую. Человек, получив задачу нового для себя типа, не начинает изобретать велосипед, потому что может использовать уже имеющиеся знания и опыт из других областей. Компьютерные системы в подобных случаях требуют множество данных и работают крайне неэффективно. Это нужно исправить.
Во-вторых, требуется улучшить понимание естественного языка, а также скопировать, используя новые техники, то, что умели делать старые системы ИИ, например символьные манипуляции. Прорывом станет решение именно этих проблем.
М. Ф.: Когда сильный ИИ появится, будет ли он обладать сознанием?
Д. Х.: Я надеюсь, что ответ на этот вопрос появится в процессе работы. Но с моей точки зрения, сознание и интеллект разобщены. Одно без другого вполне может существовать.
М. Ф.: Сильный ИИ может стать разумным зомби?
Д. Х.: Возникает философский вопрос, как об этом узнать, если машина ведет себя так же, как и мы? Если воспользоваться бритвой Оккама, получится, что если некто демонстрирует такое же поведение, как и я, и сделан из того же материала, то можно предположить, что он чувствует то же самое, что и я. Но машина сделана из другого материала. И в этом случае уже нельзя безоговорочно применить бритву Оккама. Может быть, в некотором смысле машины сознательны, но на уровне чувств мы этого не ощущаем, потому что они сильно отличаются от нас.
М. Ф.: То есть вы верите в возможность сознания у машин? Что это не биологический феномен.
Д. Х.: У меня нет подобных предубеждений. Пока мы не знаем ответа. Вполне может оказаться, что в биологических системах есть что-то особенное. Например, сторонник гипотезы квантового сознания сэр Роджер Пенроуз считает, что создание сильного ИИ невозможно. Но я надеюсь, что путь, по которому мы идем, даст понимание о том, что такое сознание и где оно находится.
М. Ф.: Какие риски, на ваш взгляд, связаны с сильным ИИ? Илон Маск говорил о «призывах демона» и экзистенциальной угрозе. Много об этом писал и Ник Бостром, который, насколько я знаю, входит в совет экспертов DeepMind. А что об этом думаете вы?
Д. Х.: Я много говорил с ними об этих вещах. И как это всегда бывает при личных беседах, проявились различные нюансы высказываний, которые изначально казались не тем, чем стали.
Лично я работаю над ИИ, потому что считаю, что это принесет пользу человечеству. Позволит раскрыть наш потенциал в науке. Любая технология сама по себе нейтральна. А будущее зависит от того, как мы, люди, решим ее использовать и распределить выгоды.
Сложностей много, но они больше напоминают геополитические проблемы, которые нужно решать обществу. Ник Бостром беспокоится о технических вопросах, таких как проблема контроля и проблема выравнивания. Мне кажется, что говорить об этом пока рано и нужны дополнительные исследования, ведь обсуждаемые системы появились недавно.
Пять лет назад все эти вопросы вообще были чисто философскими. Теперь у нас есть AlphaGo и зарождаются другие интересные технологии. На текущей стадии нужно делать обратное проектирование этих вещей и экспериментировать с ними, создавая инструменты визуализации и анализа. Это позволит лучше понять, как функционируют эти «черные ящики» и как мы интерпретируем их поведение.
М. Ф.: Уверены ли вы, что мы справимся с опасностями, которые несет сильный ИИ?
Д. Х.: Когда эти системы перестанут быть «черным ящиком», мы разберемся, как ими управлять. Я уверен, что через инженерные эксперименты можно решить многие проблемы, о которых беспокоится Ник Бостром. Теория и практика должны идти рука об руку. Это не значит, что я не вижу поводов для беспокойства. Но я предпочитаю заниматься актуальными проблемами. Такими, как тестирование систем, которые мы внедряем в продукты. Конечно, некоторые из долгосрочных проблем настолько сложны, что возникает желание думать о них уже сейчас, задолго до того, как появится реальная необходимость искать их решение.
М. Ф.: А что вы думаете об автономном оружии? Вы очень откровенно высказывались об использовании ИИ в военных целях.
Д. Х.: В DeepMind мы считаем, что приложения ИИ должны оставаться под контролем людей и применяться в общественно полезных целях. То есть мы за запрет разработки и развертывания полностью автономного оружия и выражали эту точку зрения разными способами, в том числе подписали открытое письмо и поддержали обращение FHI.
М. Ф.: Но ведь химическое оружие все равно применяется, несмотря на запрет. Из-за соперничества между странами ситуация может начать развиваться в другом направлении. Например, в Китае активно работают над ИИ. Стоит ли волноваться о том, что они получат преимущество в этой сфере?