Практика прямого учета библиометрических данных в формулах финансирования университетов возникает в 1990-е годы сначала в Австралии, а затем, с 2003 года, в бельгийской Фландрии [121] 121 См.: Linda Butler, “Explaining Australia’s increased share of ISI publications. The effects of a funding formula based on publication counts,” in Research Policy , 31, 2003, pp. 143–155; см. того же автора: “Assessing university research: a plea for a balanced approach,” in Science and Public Policy , 34, 2007, pp. 565–574; см. также: Koenraad Debackere, Wolfgang Glänzel, “Using a bibliometric approach to support research policy making: the case of the Flemish BOF-key,” in Scientometrics , 59, 2004, pp. 253–276.
. Целью оценивания при этом является не улучшение практик и организации исследований, а наказание институций, которые оказываются наименее эффективными по выбранным показателям, через урезание их бюджета. Это механическое применение библиометрии, которое заставляет академические институции гнаться за количеством публикаций, уже подвергалось суровой критике [122] 122 См.: Karen Stroobants, Simon Godecharle, Sofie Brouwers, “Flanders overrates impact factors,” in Nature , 500, 29 (1 August), 2013, p. 29.
. В Австралии подобные критические выступления заставили правительство отказаться от системы рейтингов, и в 2007 году она была заменена другой системой, основанной на экспертной оценке, «формируемой с опорой на ряд количественных показателей» [123] 123 Conseil des académies canadiennes [Совет канадских академий], Éclairer les choix en matière de recherche, op. cit., p. 131.
. Речь идет не о полном отказе от количественных индикаторов, а скорее о том, чтобы использовать их с учетом контекста, рассматривая те или иные критерии как помощь при вынесении оценки , вместо того чтобы принимать их за абсолютную и бесспорную истину только потому, что они выражены цифрами.
Как и следовало ожидать, работы, посвященные последствиям оценивания, основанного на количественных характеристиках статей, показывают, что исследователи сознательно подстраивают свое поведение под критерии, используемые при их оценке [124] 124 См.: Linda Butler, “Modifying publication practices in response to funding formulas,” in Research Evaluation , 12, 2003, pp. 39–46; Henk F. Moed, “UK research assessment exercises: informed judgments on research quality or quantity?”, in Scientometrics , 74, 2008, pp. 153–161; Valerie Bence, Charles Oppenheim, “The role of academic journal publications in the UK Research Assessment Exercise,” in Learned Publishing , 17, 2004, pp. 53–68.
. Как замечает Майя Бовалле в своей книге о показателях эффективности, введенных в академических организациях под влиянием новой менеджерской идеологии, «как только тот или иной показатель сконструирован и введен в использование, результаты по нему улучшаются уже просто потому, что на нем оказывается сконцентрировано всеобщее внимание» [125] 125 Maya Beauvallet, Les Stratégies absurdes. Comment faire pire en croyant faire mieux (Paris: Seuil, 2009), p. 67.
.
К счастью, организаций, механически включающих библиометрию в формулы финансирования, пока единицы, в то время как их большая часть не разделяет подобные подходы. Так, Совет канадских академий, проведя опрос об использовании библиометрических показателей при распределении финансирования в десятке стран, в заключение своего отчета подчеркивает, что «напрямую увязывать выделение денежных средств с количественными показателями является слишком большим упрощением и не представляет собой реалистичной стратегии» [126] 126 Conseil des académies canadiennes [Совет канадских академий], Éclairer les choix en matière de recherche, op. cit., p. xiv.
. Остается лишь пожелать, чтобы другие организации подписались под этими словами, преодолев выжидательную и некритичную позицию, подобную той, что занимает, к примеру, Институт Франции [127] 127 См.: Institut de France, Du bon usage de la bibliométrie pour l’évaluation individuelle des chercheurs , 17 janvier 2011; http://www.academie-sciences.fr/activite/rapport/avis170111.pdf.
.
Измерять и контролировать
Жаркие споры на предмет использования библиометрических показателей при оценке исследователей чаще всего оставляют за кадром важнейший аспект оценивания, а именно роль экспертной работы самих исследователей в этом процессе. Стремление таких институтов, как Европейский научный фонд (ESF), Европейский исследовательский совет (ERC) и Агентство по оценке научных исследований и высшего образования Франции (AERES), использовать ранжирование журналов по категориям A, B и C для упрощения и даже механизации индивидуального оценивания де-факто представляет собой своего рода тейлоризацию оценивания, деквалификацию необходимого для него экспертного знания.
Рейтинги журналов порождают легкопредсказуемые негативные эффекты, которые вовсе не компенсируются их весьма ограниченной потенциальной пользой. Например, некоторые статьи будут предлагаться в неподходящие для них журналы по той причине, что последним присвоен рейтинг A, и это будет только повышать риск их отклонения редакцией журнала. Другое предсказуемое последствие: новым динамичным журналам станет сложно пробивать себе дорогу, поскольку им не удастся быстро получить хорошее место в рейтинге, в результате чего исследователи будут неохотно предлагать им статьи. Мы не призываем здесь к увеличению числа журналов. В силу неизбежной ограниченности ресурсов невозможно бесконечно открывать новые журналы по данной дисциплине. Разумеется, невозможно и запретить создавать новые журналы, но когда на кону деньги налогоплательщиков, вполне законным является требование, чтобы решения о выделении субсидий были основаны на определенных критериях, подходящих для оценки журналов. Так, представляется оправданным утверждение, что журнал, 90 % авторов которого принадлежат к одной лаборатории, не отвечает потребностям всего научного сообщества и не заслуживает государственных субсидий.
Читать дальше