Шрифт:
Закладка:
Ни нарезка статей, ни публикации в хищнических журналах явно не противоречат никаким правилам, и определить, что именно считается “нарезкой”, так же трудно, как и разделить все журналы на “хищнические” и легитимные. Но это не значит, что в погоне некоторых ученых за все большим числом публикаций не происходит откровенного нарушения правил – то есть мошенничества. Как мы уже видели, мошенничество в науке присутствует неотлучно, и оно влияет на процесс публикации точно так же, как и на процесс сбора данных и написания статьи. Например, мошенники пользуются тем удивительным, возможно, фактом, что ученые часто могут предлагать рецензентов для своей собственной статьи, когда подают ее в журнал. Редактор волен отправить статью предложенным рецензентам или же обратиться к выбранным им самим, но чаще предпочитает первый вариант: идея предлагать рецензентов, собственно, и заключается в том, чтобы избавить редакторов, у которых совершенно нет времени, от необходимости искать требуемых экспертов в соответствующей области. Система, что понятно, подвержена злоупотреблениям: авторы могут предлагать в рецензенты своих друзей или коллег, облегчая себе путь к публикации. Это довольно плохо, но, как всегда, мошенничество выводит все на новый уровень. Один редактор описал случай с биологом Мун Хён Ином (тринадцатый[644] номер в “списке лидеров” Retraction Watch с тридцатью пятью отозванными статьями):
Он предлагал предпочтительных рецензентов… [и это] были он сам или его коллеги под фиктивными именами и аккаунтами. В некоторых случаях он указывал имена реальных людей (если бы вы стали искать их в Google, то увидели бы, что они действительно существуют), но создавал для них учетные записи электронной почты, к которым он или его коллеги имели доступ и которые затем использовались для отправки замечаний от рецензентов. В других случаях имена и адреса электронной почты он просто выдумывал. Замечания этих рецензентов почти всегда были благосклонными, но все же содержали предложения по улучшению работы[645].
Редакторы заподозрили неладное, потому что рецензии часто приходили в течение суток. Дурацкий прокол Муна: настоящие ученые, которые, как известно, занятые и иногда запаздывают с рецензиями на недели или даже месяцы, никогда не проявлялись бы с такой упорной пунктуальностью. Мун далеко не одинок: фальшивые рецензии – классика жанра в базе данных Retraction Watch[646]. В 2016 году крупное научное издательство Springer впало в такое отчаяние из-за свирепствующего мошенничества с рецензиями в одном из своих журналов, Tumor Biology, что после отзыва ста семи нечестных статей из всего лишь четырехлетнего выпуска отказалось от издания этого журнала и продало его другой компании[647].
Слабым утешением здесь может послужить довольно удручающий факт, свидетельствующий об уменьшении ущерба, который наносят подобные недобросовестные публикационные практики. Вот он: огромное количество этих статей практически не привлекают внимания других ученых. В одной работе было показано, что за пять лет с момента публикации примерно на 12 % статей о медицинских исследованиях и на 30 % статей по естественным и социальным наукам ни разу никто не сослался[648]. Не исключено, что эти всеми заброшенные работы в конце концов будут кем-то процитированы, а может, в процессе анализа какие-то цитирования оказались пропущены[649]. Но хотя, наверное, хорошо, что низкокачественные продукты системы по максимизации количества не оказывают большого влияния, это служит сигналом: что-то не так. Не напрасно ли мы тратим время и деньги на эти исследования, которые вносят столь незначительный вклад в научную литературу? Низкое число цитирований не обязательно, конечно, говорит о качестве статьи. Это может быть, например, недооцененная работа. Однако если ученые публикуют бесполезные статьи только для того, чтобы получить место или грант, а не ради развития науки, то неудивительно, что столь многие из этих статей не представляют для других ученых интереса.
Триада нарезки, жульнических журналов и мошенничества с рецензиями ясно показывает, что не стоит оценивать ученых по общему числу публикаций: количество слишком уж легко подтасовать. Для решения этой проблемы предложено было оценивать ученых по числу ссылок на их работы. Как мы только что обсудили, этот показатель должен давать более точное представление о реальном вкладе в науку или пользе для общества. Правда, в крайнем случае ученый может написать единственную очень успешную работу с тысячами цитирований, а затем наштамповать десятки бесполезных статей, которые никто никогда читать не будет. В такой ситуации суммарное количество цитирований не будет хорошим показателем общего вклада этого ученого в науку.
В 2005 году физик Хорхе Хирш придумал способ обойти эту проблему – использовать h-индекс, или индекс Хирша[650]. Ученый с индексом Хирша h имеет h работ, каждая из которых была процитирована как минимум h раз. Это значит, что если ваш индекс Хирша равен 33, как у меня на момент написания этих строк, то у вас есть тридцать три статьи, на каждую из которых сослались не менее тридцати трех раз. Хитрость задумки в том, что увеличивать индекс Хирша становится чем дальше, тем труднее. Чтобы повысить свой до 34, мне нужно написать еще одну статью, которую процитируют по меньшей мере тридцать четыре раза, да еще и увеличить минимальное количество цитирований до тридцати четырех для других тридцати трех своих работ. Таким образом, требуется много труда – и внимания со стороны других исследователей, – чтобы в итоге обзавестись индексом Хирша, равным нескольким сотням, как у некоторых выдающихся ученых. Специализированная академическая поисковая система Google Scholar автоматически вычисляет индекс Хирша, и многие ученые – к ним, увы, отношусь и я – немного стыдятся того, сколь часто заходят на свою страницу в Google Scholar, чтобы проверить, не поменялся ли индекс с ростом числа цитирований. (По моему опыту, когда ученый, даже если он высмеивает саму идею каких-либо показателей для оценки исследователей, говорит вам, что его совершенно не интересует проверка собственного индекса Хирша, он, скорее всего, либо лукавит, либо не слышал о Google Scholar[651].)
Как вы, наверное, догадались, индекс Хирша ученого часто в явном виде учитывается при принятии решений о приеме на работу и продвижении по службе. Таким образом, у ученых есть сильный стимул обеспечивать