Эти данные следует интерпретировать с осторожностью. Это не столько оценка того, когда будет создан ОИИ, сколько ответ на вопрос, что́ специалисты считают вероятным, – и согласия между экспертами нет. Тем не менее очевидно, что экспертное сообщество в целом не считает ОИИ недостижимой мечтой, а полагает, что он может появиться в ближайшее десятилетие и скорее появится, чем нет, в ближайшее столетие. Возьмем это за ориентир при оценке рисков и рассмотрим, что случится, когда будет создан ОИИ[410]
.Человечество сегодня само вершит свою судьбу. Мы можем выбирать свое будущее. Разумеется, у каждого из нас свое представление об идеальном будущем и многим важнее личные дела, чем стремление к идеалу. Но если бы этого захотело достаточное число людей, мы могли бы выбрать любой из бесчисленных вариантов возможного будущего. У шимпанзе такого выбора нет. Нет его и у дроздов. И у любого другого из земных видов. Как мы узнали из первой главы, наше уникальное положение в мире объясняется уникальными особенностями нашей психики. Непревзойденный интеллект наделил нас непревзойденной силой, а следовательно, вверил нам контроль над своей судьбой.
Что случилось бы, если бы в текущем столетии исследователи создали общий искусственный интеллект, превосходящий человеческие способности почти во всех сферах? Этим актом творения мы положили бы конец эпохе, когда человек был самой разумной сущностью на Земле. Следовательно, если у нас не имеется надежного плана по контролю за ИИ, нам следует ожидать, что мы лишимся своего статуса самого могущественного вида, который сам вершит свою судьбу[411]
.Само по себе это, возможно, не дает особых причин для беспокойства. Существует немало способов при хорошем раскладе удержать контроль в своих руках. Так, мы можем попытаться разработать системы, которые неукоснительно подчиняются командам человека. Или системы, которые вольны делать что угодно, но имеют задачи, полностью совпадающие с нашими, а следовательно, строят идеальное будущее не только для себя, но и для нас. К несчастью, немногочисленные исследователи, разрабатывающие подобные планы, обнаружили, что сделать это гораздо сложнее, чем казалось. Именно они и высказывают опасения громче всех.
Чтобы понять причину их беспокойства, стоит тщательнее изучить существующие технологии ИИ и разобраться, почему их сложно настраивать и контролировать. Один из основных подходов к созданию ОИИ подразумевает комбинацию глубокого обучения и обучения с подкреплением, которое появилось раньше. Этот метод предполагает наличие агентов, которые получают вознаграждение (или штраф) за выполнение разных действий в различных обстоятельствах. Например, агент, играющий в
Комбинация действий и состояний, которые приносят агенту вознаграждение, называется
К сожалению, ни один из этих методов нельзя без труда масштабировать таким образом, чтобы закодировать человеческие ценности в функцию вознаграждения агента. Наши ценности слишком сложны и неочевидны, чтобы описать их вручную[412]
. И мы пока даже близко не подошли к тому, чтобы вывести систему ценностей человека во всей ее сложности из наблюдений за его поведением. Даже если бы такое было нам под силу, людей в человеческой общности слишком много и их ценности различаются, меняются со временем, а также не всегда понятны даже им самим. Каждое из этих осложнений ставит глубокие и нерешенные вопросы о том, как обобщать наблюдаемое в единую картину человеческих ценностей[413].