Ив Жэнгра — профессор Квебекского университета в Монреале, один из основателей и научный директор канадской Обсерватории наук и технологий. В предлагаемой книге излагается ретроспективный взгляд на успехи и провалы наукометрических проектов, связанных с оценкой научной деятельности, использованием баз цитирования и бенчмаркинга. Автор в краткой и доступной форме излагает логику, историю и типичные ошибки в применении этих инструментов. Его позиция: несмотря на очевидную аналитическую ценность наукометрии в условиях стремительного роста и дифференциации научных направлений, попытки применить ее к оценке эффективности работы отдельных научных учреждений на коротких временных интервалах почти с неизбежностью приводят к манипулированию наукометрическими показателями, направленному на искусственное завышение позиций в рейтингах. Основной текст книги дополнен новой статьей Жэнгра со сходной тематикой и эссе, написанным в соавторстве с Олесей Кирчик и Венсаном Ларивьером, об уровне заметности советских и российских научных публикаций в международном индексе цитирования Web of Science. Издание будет интересно как научным администраторам, так и ученым, пребывающим в ситуации реформы системы оценки научной эффективности.
Технические науки18+Ив Жэнгра
Ошибки в оценке науки, или Как правильно использовать библиометрию
Благодарности
Эта книга обязана своим появлением Катрин Доннар, в июне 2011 года пригласившей меня прочитать лекцию об использовании библиометрии в Национальном институте агрономических исследований (Institut National de la Recherche Agronomique, INRA). Это приглашение убедило меня в том, что настало время разобраться с многочисленными и зачастую бессодержательными дебатами по поводу использования библиометрии в оценке научных исследований. За последние пятнадцать лет мне неоднократно приходилось выступать на эту тему на разных публичных площадках. Здесь я воспроизвожу и отчасти подробнее развиваю некоторые из этих выступлений, чтобы нарисовать как можно более полную картину того, как следует и как не следует использовать библиометрию[1]. Мне хотелось бы поблагодарить коллег, которые прочитали этот текст и сделали полезные замечания: Жерома Бурдье, Мишеля Гроссетти, Йохана Хейлброна, Камий Лимож, Венсана Ларивьера, Франка Пупо, Виктора Штоцковски и Жан-Филиппа Уаррена. Я также признателен Жан-Пьеру Робитаю и Филиппу Монжону за подготовку графиков. Разумеется, я несу полную ответственность как за содержание этой книги, так и за ошибки, которые могут в ней обнаружиться.
Введение
«Оценка»… Это слово вот уже несколько лет сотрясает академический и университетский мир. Особенно это ощущается в Европе, где с начала 2000-х годов идет процесс реформирования высшего образования[2]. Оценивать стремятся всех и вся: преподавателей, профессоров, исследователей, учебные программы и сами университеты. Показателей превосходства (
Среди инструментов, используемых для создания многочисленных индикаторов превосходства, которые менеджерский подход к высшему образованию и науке повсеместно навязывает как некую очевидность, одно из почетных мест принадлежит сегодня библиометрии. В качестве критериев оценки научной продукции и ее различных применений этот исследовательский метод использует научные публикации и их цитирование. Подсчет числа публикаций и ссылок, производимый с целью рейтингования университетов, лабораторий или исследователей, часто выдается за объективную меру ценности тех или иных научных результатов.
Реагируя на распространение этих количественных показателей, многие исследователи критикуют библиометрию, ее изъяны и побочные эффекты, связанные с тем, что количество публикаций, а главное, число ссылок на них стали показателем качества и импакта их работ. Однако, как ни парадоксально, зачастую сами исследователи, принадлежащие к разным дисциплинам, спешат упомянуть об импакт-факторе журналов, в которых они публикуются, и кичатся своим индексом Хирша, как будто это гарантия их ценности и успеха. При этом они не всегда указывают на источник этих цифр и даже не вполне понимают реальное значение подобных показателей. Иными словами, невозможно всерьез вменять в вину одним лишь бюрократам всю эту «измерительную лихорадку». Ее сопровождает бешеная гонка к вершинам многочисленных рейтингов университетов, тогда как — и мы это покажем — эти рейтинги не имеют под собой ни малейшего научного основания.