Часть ученых, однако, считает, что ИИ никогда не сможет стать разумным и в некотором роде равным человеку (AGI). Основной аргумент противников общего ИИ – мысленный эксперимент в области философии сознания и искусственного интеллекта. Он называется «Китайская комната» и впервые был описан Джоном Серлом в 1980 году в статье «Сознание, мозг и программы»[5]
. Суть эксперимента очень проста: представьте изолированную запертую комнату, в которой находится человек, не знающий ни одного китайского иероглифа. У него есть блокнот с инструкциями примерно такого вида: «Возьмите такой-то иероглиф из коробочки номер один и поместите его рядом с таким-то иероглифом из коробочки номер два», но в этих инструкциях отсутствует информация о значении иероглифов, так что человек просто выполняет предписанное. Второй человек (наблюдатель), знающий китайский, через щель под дверью комнаты один за другим просовывает листочки, на которых иероглифами написаны вопросы. На выходе наблюдатель ожидает получить осмысленный ответ. Инструкции для человека в комнате составлены таким образом, что если он будет им следовать, то из своих коробочек достанет нужные иероглифы, представляющие собой ответ на поставленный вопрос, и просунет обратно под дверь. Такой процесс эмулирует деятельность компьютера (человек в комнате) при работе с живым оператором (наблюдатель). В эксперименте с «китайской комнатой» наблюдатель может отправить под дверь любой вопрос, например «Какой ваш любимый цвет?» или «За какую команду будете болеть на чемпионате мира по футболу?», и получить вполне естественно выглядящий ответ – «Красный» или «Я болею за Германию со времен их победы над Аргентиной в 1990-м»; это похоже на общение с разумным человеком, который тоже владеет китайской письменностью. Но загвоздка в том, что человек в комнате ничего не знает ни о китайском языке и иероглифах, ни о том, что у него спрашивают, ни даже о том, что такое «красный» или «сборная Аргентины». Он просто реализует записанную в блокноте последовательность действий по перекладыванию иероглифов из одной коробочки в другую и не может ничему научиться, ибо не знает значения ни одного иероглифа. Противники AGI утверждают, что машина была, есть и будет человеком в «китайской комнате», выполняющим записанный в блокноте алгоритм, а сам принцип работы человеческого сознания для нее непостижим.«Китайская комната» действительно выглядит убедительно и описывает подавляющее большинство сфер применения узконаправленного ИИ (ANI). Но в этом примере, равно как и в других концепциях, оспаривающих способность машины освоить мыслительную деятельность, на мой взгляд, есть три фундаментальных пробела. Поэтому я бы не спешил ставить крест на эволюции «тупого алгоритма».
История науки и техники полна примеров того, как при освоении новых сфер изобретатели пытались опереться на костыли старых решений или представлений. Тут и шагающий паровоз английского инженера Уильяма Брантона, и пароход с приводом на весла американского изобретателя Джона Фитча, и попытки создать летательные аппараты тяжелее воздуха с машущими крыльями. Карл Маркс в «Капитале» высказывался по этому поводу так: «До какой степени старая форма средства производства господствует вначале над его новой формой, показывает, между прочим, даже самое поверхностное сравнение современного парового ткацкого станка со старым, современных приспособлений для дутья на чугунолитейных заводах – с первоначальным немощным механическим воспроизведением обыкновенного кузнечного меха и, быть может, убедительнее, чем всё остальное, – первый локомотив, сделанный до изобретения теперешних локомотивов: у него было, в сущности, две ноги, которые он попеременно поднимал, как лошадь. Только с дальнейшим развитием механики и с накоплением практического опыта форма машины начинает всецело определяться принципами механики и потому совершенно освобождается от старинной формы того орудия, которое превращается в машину».