Даже если удастся преодолеть финансовую и экологическую проблему, например путем создания намного более эффективных аппаратных и программных средств, масштабирование как стратегия просто может оказаться недостаточным для обеспечения устойчивого прогресса. Неуклонно растущие инвестиции в вычисления привели к появлению невероятно продуктивных систем в узких областях, но становится все очевиднее, что глубокие нейронные сети имеют ограничения, связанные с надежностью, из-за которых эта технология может оказаться непригодной для решения многих прикладных задач в отсутствие значимых концептуальных прорывов. Одна из самых явных слабостей этой технологий проявилась, когда группа исследователей из Vicarious — маленькой компании, разрабатывающей роботов (см. главу 3), — провела анализ нейросети, используемой в системе DQN от DeepMind, которая научилась побеждать в видеоиграх Atari[152]. Один тест был выполнен на игре Breakout, где игрок должен с помощью ракетки отбивать быстро движущийся мяч. Когда ракетка была сдвинута на экране всего на несколько пикселей вверх — человек может даже не заметить этого, сверхчеловеческая результативность системы сразу же испарилась. Программа DeepMind была не способна адаптироваться даже к небольшому изменению. Единственной возможностью возврата высшей результативности было полное переучивание системы с помощью данных, соответствующих новой конфигурации экрана.
Хотя мощные нейронные сети DeepMind и воссоздают образ экрана Breakout, он остается жестко привязанным к простым пикселям даже на более высоких уровнях абстракции в сети. Очевидно, что у системы не возникает понимания ракетки как реального объекта, который можно перемещать. Иными словами, это не имеет ничего общего с человеческим пониманием материальных объектов, представленных пикселями на экране, или физических законов, управляющих их движением. На всех уровнях сети это просто пиксели. Хотя некоторые исследователи ИИ продолжают верить, что более целостное понимание в конце концов возникло бы, если бы сеть имела больше слоев искусственных нейронов, поддерживалась более быстрым компьютером и поглотила еще больше данных, я считаю это крайне маловероятным. Чтобы появились машины, обладающие более человеческим восприятием мира, требуются фундаментальные инновации.
Этот тип проблем, обусловленный негибкостью ИИ-системы и ее неспособностью адаптироваться даже к мелким неожиданным изменениям входных данных, исследователи называют хрупкостью. Хрупкое ИИ-приложение, пожалуй, не такая уж серьезная проблема, если из-за нее складской робот время от времени упаковывает в коробку не тот товар. Однако в других случаях этот технический недостаток может обернуться катастрофой. Именно поэтому, например, реальные достижения в сфере беспилотных автомобилей так далеки от первых восторженных прогнозов.
Все эти ограничения оказались в центре внимания к концу десятилетия, породив серьезные опасения, что данная область исследования снова отрывается от реальности, а хайп задирает ожидания слишком высоко. В отраслевых изданиях и социальных сетях вновь замелькало одно из самых пугающих для разработчиков искусственного интеллекта словосочетаний — «зима искусственного интеллекта». В интервью BBC в январе 2020 года Йошуа Бенджио сказал, что «возможности ИИ были несколько преувеличены… некоторыми компаниями, которым это было выгодно»[153].
В значительной мере эта обеспокоенность связана с тем направлением деятельности, где хайп достиг абсолютного максимума (см. главу 3), — беспилотными автомобилями. Стало ясно, что, вопреки оптимистическим прогнозам начала десятилетия, до настоящих беспилотных транспортных средств, способных функционировать в разнообразных условиях, еще далеко. Такие компании, как Waymo, Uber и Tesla, вывели беспилотные машины на дороги общего назначения, но за исключением нескольких экспериментов с очень серьезными ограничениями в салоне всегда находился водитель, которому, как оказалось, слишком часто приходилось брать управление на себя. Даже при наличии водителя, обязанного контролировать работу автомобиля, происходили аварии со смертельным исходом, бьющие по репутации этого направления. В 2018 году пользователи активно делились постом из блога исследователя в области машинного обучения Филипа Пикневски «Зима ИИ давно наступила». В нем отмечалось, что по данным, запрошенным штатом Калифорния, одна проходящая испытания машина «не могла проехать буквально десятка километров» без отказа системы, вынуждавшего человека принимать на себя управление автомобилем[154].