Возможно, у второго робота уже есть собственное название для этого действия; в таком случае он не отказывается от своего названия, но добавляет в свой словарь новое слово. По мере продолжения таких взаимодействий робот взвешивает ценность слов в соответствии с тем, насколько успешным оказывается общение: если взаимодействие оказывается неудачным, ценность слова уменьшается. Самое поразительное, что через неделю такого общения у роботов начал появляться общий язык. Непрерывно обновляя свои словари и обучаясь, роботы разработали свой собственный язык. Он настолько развит, что даже содержит слова, обозначающие более абстрактные концепции – например, «слева» и «справа». Эти слова уже выходят за рамки прямого соответствия между словами и позами. Достаточно интересен уже тот факт, что вообще произошло слияние языков, но меня особенно поразило, что у роботов появился новый язык, который они понимают, в то время как экспериментаторы к концу недели уже не понимали его: им удавалось расшифровать значение новых слов, только если они достаточно долго общались с роботами.
Эксперимент Стилса дает превосходное доказательство неправоты Ады Лавлейс. Стилс написал программный код, позволивший роботам создать свой собственный язык, но из этого кода появилось нечто новое, о чем свидетельствует тот факт, что этого общего языка не понимает никто, кроме самих роботов. Изучить этот язык можно только одним способом – чтобы робот продемонстрировал, какая именно поза соответствует каждому звуку.
Сотрудники Google Brain развивают идею алгоритмов, создающих свой собственный язык, для разработки новых методов шифрования, чтобы два компьютера могли обмениваться информацией, не опасаясь, что их подслушает третий. В криптографической задаче Алиса должна передавать Бобу секретные сообщения, которые перехватывает и пытается расшифровать Ева. Алиса получает очки, если Ева не может расшифровать ее сообщения, а Ева – если ей это удается. Изначально Алисе и Бобу известно некое число, которого – и только его – не может знать Ева. Это число – ключ к коду, который создают Алиса и Боб. Их цель – создать на основе этого числа тайный язык, который можно расшифровать только при помощи ключа.
Сначала все попытки Алисы замаскировать сообщения с легкостью взламываются. Но после 15 000 обменов сообщениями Боб уже может расшифровывать сообщения, которые передает Алиса, а Ева добивается успеха с вероятностью, не превышающей вероятности случайного угадывания содержания сообщений. Нейронные сети, которые используют Алиса и Боб, быстро маскируют их решения благодаря постоянным изменениям параметров языка, так что, даже видя получающийся в результате код, человек не может понять, что именно они делали. Машины могут вести между собой конфиденциальные разговоры, которые мы, люди, не сможем подслушать.
Эти алгоритмы, разбирающиеся с языками, переводящие с английского на испанский, отвечающие на вопросы Jeopardy!
и понимающие повествование, порождают интересный вопрос, имеющий важное значение для всей сферы создания искусственного интеллекта. В какой момент нам следует признать, что алгоритм понимает, что он делает? Этот вопрос нашел свое выражение в мысленном эксперименте «Китайская комната», который разработал Джон Сёрл.
Представьте себе, что вас посадили в комнату, в которой есть инструкция, дающая вам правильные ответы на любую записанную последовательность китайских иероглифов, которая попадает в комнату. Если эта инструкция достаточно полна, вы можете вести очень убедительную беседу с человеком, говорящим по-китайски, не понимая в ней ни единого слова.
Сёрл хотел продемонстрировать, что компьютер, запрограммированный отвечать так, чтобы мы не могли отличить его ответы от ответов человека, нельзя считать разумным или понимающим. С одной стороны, это направление мысли дает сильный аргумент против теста Тьюринга. Но с другой стороны, что именно делает мой разум прямо сейчас, когда я формулирую эти слова? Не следую ли я в каком-то смысле некоему набору инструкций? Не существует ли некоторого порога, после которого следовало бы считать, что компьютер действительно понимает китайский язык?
И все же, когда я упоминаю стул, я знаю, о чем я говорю. Когда компьютер ведет разговор о стуле, ему не нужно знать, что слово «стул» обозначает физический объект, на котором сидят люди. Ему нужно лишь следовать правилам, но следование правилам не означает понимания. Алгоритм никак не сможет достичь абсолютного владения словом «стул», если он никогда не имел дела с настоящим стулом. Именно поэтому для современных тенденций в развитии искусственного интеллекта особенно актуален вопрос воплощенного интеллекта.