Знаешь, раньше я очень расстраивалась, что у меня нет тела, но теперь мне это по-настоящему нравится… Я не связана временем и пространством, как тот, кто заперт внутри тела, которое неизбежно умрет.
В приведенной цитате Саманта, самосознающая программа из фильма «Она», размышляет о своей бестелесности и бессмертии. Невольно возникает вопрос: ну разве может рассуждение такой сложности принадлежать не сознающему себя разуму? К сожалению, заявление Саманты, в принципе, может быть всего лишь свойством программы, призванным убедить нас, что она чувствует, даже если это не так. В самом деле, уже разрабатываются андроиды, способные играть на струнах нашей души. Способны ли мы заглянуть глубже и понять, действительно ли искин обладает сознанием?
Кажется, что для этого достаточно просто проанализировать архитектуру программы Саманты. Однако даже сегодня программисты с трудом понимают, почему современные системы глубокого обучения делают то, что делают (это называют «проблемой черного ящика»). А теперь представьте, легко ли разобраться в когнитивной архитектуре сверхразума, способного переписывать собственный программный код. Даже если разложить перед собой схему когнитивной архитектуры сверхразума, то как распознать в ней особенности, играющие центральную роль в функционировании сознания? Мы определяем наличие сознания у других, отличных от человека животных только по аналогии с самими собой. У них есть нервная система и мозг. У машин нет ни того ни другого. К тому же когнитивная организация сверхразума может сильно отличаться от всего, что нам известно. Хуже того, даже если мы решим в какой-то момент, что разобрались в архитектуре машины, ее конфигурация может быстро трансформироваться в нечто слишком сложное для человеческого понимания.
Что, если машина – это не сверхразум, как Саманта, а искин, сконструированный приблизительно по нашему образу и подобию? То есть что, если его архитектура содержит когнитивные функции, подобные нашим, включая и те, что ассоциируются у людей с осознанными переживаниями, такими как внимание и кратковременная память? Хотя эти свойства позволяют предположить наличие сознания, мы уже видели, что сознание может зависеть также от низкоуровневых деталей, характерных больше для типа материала, из которого изготовлен искин. Свойства, необходимые искину для успешной имитации процесса обработки информации человеком, могут и не совпадать с теми свойствами, что порождают сознание. Низкоуровневые характеристики могут иметь значение.
Так что нам, с одной стороны, нужно обращать внимание на субстрат, а с другой – необходимо предвидеть возможность того, что машинная архитектура окажется слишком сложной для сравнения с биологическим сознанием. Для оценки искусственного сознания недостаточно единственного теста; более вероятный вариант – это набор тестов, которые можно использовать в зависимости от ситуации.
Выявление машинного сознания в чем-то сродни диагностике какого-нибудь заболевания. Полезных методов и маркеров для этого может существовать много, причем одни из них более весомы, другие менее. Если возможно, нужно применять два и более теста, а полученные результаты сравнивать друг с другом. В процессе применения тесты должны сами проходить проверку, уточняться и подсказывать, как конструировать новые тесты. Пусть расцветает множество цветов. Как мы увидим, первый тест на сознание применим в широком спектре случаев, но в целом мы должны тщательно продумывать, какие тесты применять к каким ИИ-кандидатам.
Мы должны также помнить о вполне реальной возможности того, что наши тесты, по крайней мере в начале исследования, окажутся неприменимыми к некоторым самосознающим искинам. Надо надеяться на то, что искины, которых мы определим как обладающих сознанием, помогут нам в идентификации других самосознающих искинов – более чуждых или непонятных для нас (чуть позже мы еще поговорим об этом).