Методика ведения аналитической разведки с помощью данного программного обеспечения следующая: обрабатывая материалы открытого доступа, имеющиеся в Интернет-пространстве, программа статистического анализа составляет так называемые карты работы в различных отраслях науки. В свою очередь, это позволяет аналитикам устанавливать наиболее перспективные научные разработки в областях, где конкуренция пока что сравнительно невелика. Результаты количественного и качественного анализа результатов работы научных лабораторий позволяют оценить степень творческой атмосферы исследовательских коллективов. Это также может быть весьма полезным при выявлении «перспективных летунов», т. е. исследователей, которые за сравнительно короткий срок успевают поменять ряд представляющих интерес научных центров, а тем самым знакомы со многими результатами их работы.
Стоит упомянуть еще одну французскую разработку. Для проведения семантического анализа крупных информационных массивов компания «Acetic» совместно с учеными Парижского университета разработала пакет прикладных программ «Tropes». Отбор требуемой информации происходит в соответствии с ключевыми словами и понятиями, связанными по смыслу. Так, например, название типа самолета «Мираж» соотносится со словами «самолет», «истребитель», а сочетание слов «госсекретарь США» автоматически ассоциируется со словами «министр», «политик». Данное программное обеспечение позволяет одновременно анализировать два текстовых информационных фрагмента объемом в несколько десятков книжных томов. Помимо этого «Tropes» предоставляет возможность создавать необходимые для работы информационные «сценарии», на основе которых автоматически осуществляется не только поиск, но и целевое группирование требуемых данных.
Технический прогресс не стоит на месте, и весьма очевидно, что если государственные спецслужбы отдают для коммерческого использования подобные разработки, то это может означать только одно — они получили в свое распоряжение что-то гораздо более мощное.
«Noemic», сменивший «Taiga» на боевом посту, не только сканирует, но и автоматически осуществляет «объединение источников», обрабатывая полученную информацию со скоростью 1 млрд. знаков в секунду независимо от того, существуют ли она в виде готовой базы данных или, например, передается электронным агентством новостей на любом языке в виде целостного текста. Этот семантический процессор сбора данных способен также подвергать обработке заслуживающие его внимания концепции, метафоры и совокупности идей. Если перед ним поставить задачу выявить, например, все случаи установления связей между гонконгскими и американскими фирмами, действующими в области микроэлектроники, за последние пять лет, то для ее выполнения ему хватит всего нескольких часов.
Американский аналог этих программных комплексов, который называется «Topic», также первоначально разрабатывался для нужд разведки. Данная система появилась на свет в результате длительных исследовательских работ, осуществлявшихся под контролем ЦРУ. Сегодня он также передан в коммерческое использование, и все права на него принадлежат калифорнийской фирме «Verity», мировому лидеру по сбору документальных данных.
Не отстают от «Verity» и ее конкуренты. Так, например, американская фирма «Intelligent Search Solutions» выпустила на рынок пакет программного обеспечения «InfoTracer», предназначенный для сбора разведывательной информации экономического характера в сети Интернет. Для «фильтрования» информации указанное программное обеспечение использует ключевые слова и фразы, после чего автоматически составляются сообщения необходимого пользователям содержания. В них могут быть, например, данные о деловых операциях конкретной компании и ее партнерах, используемых ими технологиях и выпускаемой продукции, а также фамилии руководящего персонала.
В данной связи хотелось бы отметить, что появление новых сетевых информационных технологий практически уравняло возможности конкурентов в получении необходимой исходной информации. Теперь основное значение имеют быстрота поиска и правильный анализ. В этом как раз и могут помочь процессоры сбора данных, позволяющие «извлекать» и анализировать необходимую информацию из крупных информационных массивов. Профессионалы прекрасно понимают, что экономическую разведку можно вести без компьютерных взломов, просто обрабатывая по специальному алгоритму огромные массивы информации, доступные каждому пользователю Интернета.
По оценкам специалистов, в настоящее время только в США насчитывается около 150 фирм, которые специализируются на анализе данных, полученных из Интернета. Причем новые фирмы растут как грибы после дождя.