Для меня четко выделяются некоторые аспекты функционального вопроса. Иллюзия свободы воли дает нам возможность говорить о намерениях и обдумывать их рационально, вероятно, используя контрфактивную логику. Скажем, тренер удаляет нас с футбольного матча и говорит: «Надо было пасовать Чарли». Подумайте обо всех сложных значениях, заключенных в этих восьми словах.
Во-первых, цель этого указания «надо было» — быстро передать ценную информацию от тренера игроку: в будущем, столкнувшись с подобной ситуацией, выбирайте действие
Соответственно, я бы предположил, что команда роботов лучше бы играла в футбол, если бы их запрограммировали общаться так, словно у них есть свобода воли. Независимо от того, насколько техничны отдельные роботы, результативность их команды улучшится, если они смогут разговаривать друг с другом, как если бы они были не заранее запрограммированными роботами, а автономными агентами, полагающими, что у них есть выбор.
Хотя пока неизвестно, улучшит ли иллюзия свободы воли взаимодействие роботов с роботами, в плане взаимодействия роботов с людьми неуверенности гораздо меньше. Для естественного общения с людьми сильному ИИ, безусловно, потребуется понимать вокабуляр возможностей и намерений, и, следовательно, имитировать иллюзию свободной воли. Как я объяснил выше, им также выгодно самим «верить» в свою свободную волю — чтобы иметь возможность осознать собственное намерение и изменить действие.
Способность рассуждать о своих убеждениях, намерениях и желаниях представляет серьезный вызов для исследователей ИИ и определяет понятие свободы действий. Однако философы изучают эту способность как часть классической проблемы самосознания. Такие вопросы, как «Могут ли машины иметь сознание?» или «Чем программа со свободой действий отличается от обычной программы?», занимали и занимают лучшие умы многих поколений, и я не буду притворяться, что готов дать на них полные ответы. Тем не менее я считаю, что алгоритмизация контрфактивного — важный шаг к пониманию этих вопросов и к превращению сознания и действия в вычислительную реальность. Методы, описанные для оснащения машины символическим представлением окружающей среды и способностью представить гипотетическое возмущение этой среды, могут быть расширены, чтобы включить в среду саму машину. Ни одна машина не способна обработать полную копию собственного программного обеспечения, однако ей можно дать схему его основных компонентов. Другие компоненты затем станут рассуждать об этой схеме и имитировать состояние самосознания.
Чтобы создать ощущение свободы действий, мы также должны оснастить этот программный пакет памятью для записи прошлых активаций, на которые он будет ссылаться, когда его спросят: «Почему ты это сделал?» Действия, которые проходят через определенные паттерны при активации пути, получат аргументированные объяснения, например: «Потому что альтернатива оказалась менее привлекательной». Другие ответы будут бесполезными или уклончивыми: «Хотел бы я знать почему» или «Потому что ты меня так запрограммировал».
Подводя итог, я считаю, что программный пакет, который даст мыслящей машине преимущества свободы воли, будет состоять как минимум из трех частей: из причинной модели мира, причинной модели собственного программного обеспечения, пусть и поверхностной, и памяти, в которой будет записано, как намерения в ее уме соответствуют событиям во внешнем мире.