В аналоговом устройстве, таком, например, как термостат, есть погрешности и неопределенности, которые говорят нам о том, что он может повести себя непредсказуемо. Даже простейшие системы могут иметь настолько хаотичные петли обратной связи, что предсказать их поведение будет невозможно. В цифровом девайсе подобной неоднозначности нет. Либо ноль, либо единица. Нет никакого элемента непредсказуемости или случайности. Компьютеры – физическое воплощение математической логики, поэтому они точны и однозначны, как она сама. Один плюс один всегда будет равняться двум. Квадратный корень из девяти всегда будет равен трем.
Как же в таком случае ИИ, программа, запущенная на детерминированном компьютере, может обладать свободой воли? Этой темы большинство ученых старается избегать. Как ученые мы понимаем, что не вполне способны объяснить ее. Мы составляем математические уравнения для точного расчета времени, в которое произойдет вспышка нейрона. Мы определяем химические способы добиться того или иного результата. Мы обсуждаем перенос ионов, который описывается точными дифференциальными уравнениями. Есть ли среди этих моделей место для свободы воли?
Но эта проблема существует не только в области ИИ. Наука до сих пор пытается описать тот же феномен применительно к нашему собственному мозгу. Свободная воля может прятаться в лакунах, оставленных нашими научными познаниями о мозге. Квантовая неопределенность – одна из таких лакун.
Сэр Роджер Пенроуз[46]
, один из самых известных критиков идеи искусственного интеллекта, утверждал, что мозг не действует на основании алгоритмов, а потому не может быть смоделирован в цифровом виде. Он предполагал, что квантовые эффекты играют важную роль в работе нашего мозга[47]. Ученые пока не пришли к единому выводу относительно этого предположения. Однако даже если все действительно так, то ничего не мешает компьютеру смоделировать эти квантовые эффекты. Следовательно, встает вопрос: нашел Пенроуз то место, где прячется свободная воля?Другим таким местом может быть сложность мира, внутри которого мы взаимодействуем. Возможно, свобода воли – это что-то, что возникает от контакта человека с окружающей средой. Как утверждал Дэниэл Деннет, свобода воли может быть иллюзией, рождающейся от этой сложности[48]
.Мы регулярно забываем, что причины принимаемых нами решений часто обусловлены сложностью нашего мира. То, что видится как свободный выбор, на деле оказывается результатом огромной запутанной схемы, в которой мы в действительности мелкие фигурки. Искусственный интеллект может помочь решить этот вопрос и выяснить, является ли свобода воли иллюзией.
Этичные роботы
Если разумные машины все же обретут свободу воли, то нам следует задуматься об их ценностях. Используют ли они эту свободу, чтобы творить зло? Даже при отсутствии у них свободы воли мы будем ждать от них этичного поведения.
Проблема состоит не только в том, насколько умны машины. Даже не очень развитый ИИ должен вести себя этично. Например, этот вопрос поднимается в контексте разговора об автономных автомобилях. Они пока не слишком умны, но мы уже доверяем им жизненно важные функции.
В плане этичности поведения у сознательных машин будет некоторое преимущество над бессознательными. Это может отразиться на их действиях – как в прошлом, так и в настоящем и будущем. Это может отразиться и на тех, кто каким-то образом будет зависеть от этих действий. Сложно представить себе создание робота, который правильно ведет себя без исполнительного слоя, подобного в каком-то смысле человеческому сознанию.
Что же должно составить этот слой, управляющий действиями робота? Может, стоит запрограммировать туда законы робототехники, придуманные Азимовым[49]
? Эти три положения писатель предложил в 1942 году:• Первый закон. Робот не может причинить вред человеку или, вследствие своего бездействия, допустить причинение человеку вреда.
• Второй закон. Робот должен выполнять все приказы человека за исключением тех, которые противоречат Первому закону.
• Третий закон. Робот должен защищать свою жизнь за исключением тех случаев, когда это противоречит Первому или Второму законам.
Азимов утверждал, что эти законы взяты из пятьдесят шестого издания «Справочника по робототехнике», опубликованного в 2058 году. Я уверен, что к 2058 году Азимов окажется прав и у нас будут четкие этические инструкции для создания роботов. Однако рассказы писателя демонстрируют ограниченность этих трех законов. Что делать в случае, когда действие навредит одному человеку, а бездействие – другому? Что делать, если два человека отдают роботу приказы, противоречащие друг другу?