Intel была права, когда считала, что интегрированная модель дает определенные преимущества, но у нее есть и существенные недостатки. Поскольку TSMC производит микросхемы для многих компаний, она сейчас изготавливает почти в три раза больше кремниевых пластин в год, чем Intel, поэтому у нее больше возможностей для оттачивания своих технологий. Более того, если Intel видела угрозу в начинающих разработчиках микросхем, то TSMC видела потенциальных заказчиков услуг по производству. Поскольку у TSMC было только одно ценностное предложение - эффективное производство, ее руководство неустанно фокусировалось на изготовлении все более совершенных полупроводников с меньшими затратами. Руководителям Intel пришлось разделить свое внимание между проектированием и производством чипов. В итоге они не справились ни с тем, ни с другим.
Первой проблемой Intel стал искусственный интеллект. К началу 2010-х годов основной рынок компании - поставка процессоров для ПК - пришел в упадок. Сегодня, кроме геймеров, почти никто не обновляет свой ПК при выходе новой модели, и большинство людей не задумываются о том, какой процессор стоит внутри. Другой основной рынок Intel - продажа процессоров для серверов в центрах обработки данных - в 2010-х годах переживал бум. Amazon Web Services, Microsoft Azure, Google Cloud и другие компании построили сети огромных центров обработки данных, которые обеспечили вычислительную мощность, позволившую создать "облако". Большинство данных, которые мы используем в Интернете, обрабатываются в одном из дата-центров этих компаний, каждый из которых напичкан чипами Intel. Но в начале 2010-х годов, как раз когда Intel завершила завоевание ЦОД, требования к вычислительной технике начали меняться. Новым трендом стал искусственный интеллект - задача, для решения которой основные чипы Intel были мало приспособлены.
Начиная с 1980-х годов Intel специализируется на производстве микросхем типа CPU (центральный процессор), одним из примеров которых является микропроцессор в ПК. Именно эти микросхемы служат "мозгом" компьютера или центра обработки данных. Это рабочие лошадки общего назначения, способные в равной степени открыть веб-браузер или запустить Microsoft Excel. Они могут выполнять множество различных вычислений, что делает их универсальными, но эти вычисления выполняются последовательно, один за другим.
Можно запустить любой алгоритм ИИ на процессоре общего назначения, но масштабы вычислений, необходимых для ИИ, делают использование процессоров непомерно дорогим. Стоимость обучения одной модели ИИ - используемых чипов и потребляемой ими электроэнергии - может исчисляться миллионами долларов. (Чтобы научить компьютер распознавать кошку, нужно показать ему множество кошек и собак, чтобы он научился их различать. Чем больше животных требует алгоритм, тем больше транзисторов нужно).
Поскольку рабочие нагрузки ИИ часто требуют многократного выполнения одних и тех же вычислений, каждый раз используя разные данные, поиск способа адаптации чипов для алгоритмов ИИ имеет решающее значение для обеспечения их экономической целесообразности. Крупные компании, занимающиеся облачными вычислениями, такие как Amazon и Microsoft, которые управляют центрами обработки данных, на которых работают алгоритмы большинства компаний, ежегодно тратят десятки миллиардов долларов на покупку чипов и серверов. Кроме того, они тратят огромные средства на оплату электроэнергии для этих центров обработки данных. Выжимать из своих чипов максимум эффективности - необходимость, поскольку они конкурируют за право продавать компаниям место в своем "облаке". Чипы, оптимизированные для ИИ, могут работать быстрее, занимать меньше места в дата-центрах и потреблять меньше энергии, чем универсальные процессоры Intel.
В начале 2010-х годов до компании Nvidia - разработчика графических чипов - дошли слухи о том, что аспиранты из Стэнфорда используют графические процессоры Nvidia не только для работы с графикой. GPU были разработаны для работы в отличие от стандартных CPU Intel или AMD, которые обладают бесконечной гибкостью, но выполняют все свои вычисления последовательно. GPU, напротив, рассчитаны на одновременное выполнение нескольких итераций одного и того же вычисления. Вскоре стало ясно, что этот тип "параллельной обработки" может использоваться не только для управления пикселями изображений в компьютерных играх. Он также позволяет эффективно обучать системы искусственного интеллекта. Если центральный процессор подает алгоритму множество данных один за другим, то графический процессор может обрабатывать множество данных одновременно. Чтобы научиться распознавать изображения кошек, центральный процессор будет обрабатывать пиксель за пикселем, в то время как графический процессор может "смотреть" на множество пикселей одновременно. Таким образом, время, необходимое для обучения компьютера распознаванию кошек, значительно сократилось.