Слабым утешением здесь может послужить довольно удручающий факт, свидетельствующий об уменьшении ущерба, который наносят подобные недобросовестные публикационные практики. Вот он: огромное количество этих статей практически не привлекают внимания других ученых. В одной работе было показано, что за пять лет с момента публикации примерно на 12 % статей о медицинских исследованиях и на 30 % статей по естественным и социальным наукам ни разу никто не сослался[648]
. Не исключено, что эти всеми заброшенные работы в конце концов будут кем-то процитированы, а может, в процессе анализа какие-то цитирования оказались пропущены[649]. Но хотя, наверное, хорошо, что низкокачественные продукты системы по максимизации количества не оказывают большого влияния, это служит сигналом: что-то не так. Не напрасно ли мы тратим время и деньги на эти исследования, которые вносят столь незначительный вклад в научную литературу? Низкое число цитирований не обязательно, конечно, говорит о качестве статьи. Это может быть, например, недооцененная работа. Однако если ученые публикуют бесполезные статьи только для того, чтобы получить место или грант, а не ради развития науки, то неудивительно, что столь многие из этих статей не представляют для других ученых интереса.Триада нарезки, жульнических журналов и мошенничества с рецензиями ясно показывает, что не стоит оценивать ученых по общему числу публикаций: количество слишком уж легко подтасовать. Для решения этой проблемы предложено было оценивать ученых по числу
В 2005 году физик Хорхе Хирш придумал способ обойти эту проблему – использовать
Как вы, наверное, догадались, индекс Хирша ученого часто в явном виде учитывается при принятии решений о приеме на работу и продвижении по службе. Таким образом, у ученых есть сильный стимул обеспечивать себе цитируемость, равно как и публиковать все больше и больше работ, которые могут быть процитированы. И опять-таки: несмотря на то, что индекс Хирша стали использовать из лучших побуждений, порождаемые им стремления могут вызывать такое поведение, какое отвечает интересам самой системы, а не целям науки.
Очевидно, что лучший способ добиться цитирования – это получить важные, революционные результаты. И некоторые исследователи, как мы уже видели, тратят неимоверно много времени на попытки убедить журналы (и весь мир) в том, что их результаты именно таковы. Раскрутка, обсуждавшаяся в предыдущей главе, помогает с цитированиями: в одном исследовании было показано, что на статьи со значимыми результатами ссылаются в 1,6 раза чаще, чем на те, что сообщают о результатах отрицательных, однако на работы, в которых авторы