Попробую объяснить с помощью метафоры. В научно-фантастическом романе «Фабрика абсолюта» Карел Чапек описывает вымышленное устройство, способное к окончательному превращению материи в энергию. Устройство использует материю как топливо, которое полностью уничтожает. Книгу автор написал в начале XX века, когда только открыли эквивалентность массы и энергии в виде знаменитой формулы
– И при этом не происходит ничего «жуткого». Если не считать аннигиляции, взрыва вещества и антивещества, как у Дэна Брауна в «Ангелах и демонах».
– Именно. Но давайте немного видоизменим идею Чапека. Я подумал, что, возможно, «жуткие» вещи происходят, когда уничтожается информация. Почему? Этого мы пока не понимаем. Но это бы объяснило, почему смерть играет такую большую роль в наших опытах с гуманизированными жертвоприношениями. Почему важны мертвые свидетели и почему в их роли может выступить ИИ. Осталось лишь продолжить исследования.
– Полагаю, вы стали загружать разную информацию в ИИ, стирать ее и наблюдать за последствиями?
– Именно так.
– А что же насчет дискуссии об этичности подобных экспериментов над разумными компьютерами?
– О, вы затронули чрезвычайно деликатный вопрос. Мы с вами, вероятно, могли бы согласиться: существует вполне осязаемая вероятность, что ИИ ничем не отличается от людей с точки зрения наличия воспоминаний, личного опыта и, может быть, даже сознания. Особенно с учетом последних технологических достижений. Но эта тема все еще вызывает массу споров. Многие влиятельные философы считали, что ИИ никогда не достигнет человеческого уровня понимания, интеллекта и самосознания.
Например, в 2013 году философ Джон Сёрл написал статью для журнала
На мой взгляд, единственное, что доказал Сёрл, – свое полное непонимание ИИ и программирования. Не все компьютерные программы определяются «исключительно синтаксически». Нейронные сети для ИИ использовались уже десятилетиями. Множественные исследования показали, что они учатся решать самые разные задачи, принимать собственные решения, которые в них никто не закладывал. Интернет переполнен видеороликами, наглядно показывающими, как ИИ эволюционируют и адаптируются. Биологическая основа человеческого мозга не предлагает ничего фундаментально особенного по сравнению с современными ИИ, потому что совершенно неважно, из каких нейронов сделана сеть – реальных клеток или их цифровых аналогов. Важно лишь то, как они хранят и обрабатывают информацию.
Возможности современных ИИ и человека не особо различаются. Мы наблюдаем за поведением других людей и заключаем, что они способны на такие же когнитивные процессы и субъективный опыт, как и мы. Но если воспользоваться таким критерием, то можно предположить, что и продвинутые ИИ имеют собственное «я» и личные переживания. К сожалению, идеи Сёрла до сих пор популярны. Его знаменитый аргумент о «китайской комнате», изложенный в статье «Разумы, мозги и программы», оказался очень влиятельным и цитировался тысячи раз.
Аргумент Сёрла – мысленный эксперимент. Представьте, что ИИ ведет себя так, словно понимает китайский. Он берет китайские символы на вход, следует определенным инструкциям и выдает новые комбинации символов в качестве ответа. Эти ответы разумны и имеют смысл, поэтому мы приходим к выводу, что ИИ прошел тест Тьюринга: мы не можем отличить программу от человека, говорящего на китайском.
Затем Сёрл мысленно помещает себя в такую же закрытую комнату, где у него есть английская версия инструкций. Ему задают вопрос на китайском, он берет полученные символы и, следуя алгоритму, выдает правильные ответы. Но он по-прежнему не понимает китайский. По мнению философа, его мысленный эксперимент доказал: есть разница между пониманием и имитацией понимания, и компьютер никогда не научится первому.