К сожалению, многие из придуманных мною применений пока из области фантастики. Мы пока толком не умеем искать ни видео, ни простые изображения, плохо управляем знаниями, плохо чувствуем контекст и значительную часть своей жизни находимся офлайн. Банальный, казалось бы, пример про муравья подразумевает сложнейшую техническую реализацию. По-хорошему, телефон должен увидеть муравья и предположить, что пользователю интересен именно муравей, а не, скажем, маленькая веточка такого же размера (с распознаванием у нас пока тоскливо, но что-то умеем - номера на машинах, например, различать). Затем телефон должен отослать предварительное изображение на поисковый сервер (технических препятствий почти нет), который сравнит изображение муравья с имеющимися в базе (а мы, повторюсь, пока не знаем, что это именно муравей - для нас это просто интересный живой объект), поймет, что это муравей, и не просто муравей, а Camponotus herculeanus (не умеем), и выдаст в ответ не набор бессмысленных ссылок, а точную краткую характеристику объекта (умеем, но плохо). Или, к примеру, историческое здание на экране мобильника, увешанное комментариями и пояснениями, как популярная фотография на Flickr, - чтобы точно определить, что это за здание, нужно уметь работать с контекстом (вряд ли оптика мобильника способна уместить все здание целиком; анализировать, скорее всего, придется произвольный кусок стены), уметь искать по изображениям и видео и, конечно, уметь выводить всю эту информацию на экран так, чтобы от здания тоже что-нибудь осталось (умеем, но плохо). Самое главное, что мы не умеем постоянно быть в Сети, хотя на этом фронте перспективы вполне радужные - не сегодня, так завтра, не три "же", так четыре. Что касается остальных наших неумений, то в Intel полагают, что работоспособный видеопоиск появится в 2010 году, технология "живых субтитров" - не ранее 2012 года, а технология 2D/3D-оверлеев, когда, скажем, перевод вывески появляется не рядом с ней, а замещает собой часть оригинального изображения, - не ранее 2014 года[Про работу с контекстом см. "Препроцессинг 1" ("КТ" #751).].
Хорошие новости для Intel заключаются в том, что активная работа с 3D- и видеоконтентом, а также постоянное подключение к Сети потребуют значительных вложений как от потребителей, так и от компаний, собирающихся предоставлять подобные сервисы. Чтобы CVC работала как по маслу, серверы должны быть в десять раз мощнее, чем сегодня, терминалы должны обладать втрое более мощными центральными процессорами и в двадцать раз более мощными графическими процессорами (причем под терминалами здесь понимаются не мобильные телефоны, а ноутбуки и настольные компьютеры), а пропускная способность Сети должна вырасти в сотни раз (впрочем, это, скорее, сравнение "жадности" тех или иных приложений, нежели прогноз на будущее, но некоторое представление о перспективах дает). В общем, если CVC действительно пойдет в народ, то Intel еще долго не придется беспокоиться о выращивании новых рынков - дай бог, хотя бы частично обслужить новый класс потребностей.
Приводя примеры, я сосредоточился на описании картографических и переводческих сервисов и почти ничего не написал о возможном развитии виртуальных миров. Дело в том, что я не очень понимаю, что с ними может произойти, хотя в концепции CVC Visual занимает не подчиненную, а равноправную позицию по отношению к Connected и Computing. И Intel на меня как на потребителя не очень-то рассчитывает. Прогнозируя рост количества пользователей виртуальных миров до одного миллиарда человек в течение ближайших десяти лет, Intel делает ставку на тех, кто уже активно живет в таких мирах, а именно на пользователей от четырех до двенадцати лет - а таких в виртуальных мирах больше половины. Распиаренный SecondLife со своими 14 млн. аккаунтов заметно уступает таким откровенно детским сервисам, как Habo (90 миллионов), Neopets (45 миллионов) и IMVU (20 миллионов). И, по большому счету, это на них, а не нас с вами рассчитан представленный еще в прошлом году 80-ядерный исследовательский чип производительностью 1 терафлопс. Нам же, когда они подрастут, останется только брюзжать: мол, в наше время любому приличному человеку двух ядер за глаза хватало.