Практика прямого учета библиометрических данных в формулах финансирования университетов возникает в 1990-е годы сначала в Австралии, а затем, с 2003 года, в бельгийской Фландрии [121]. Целью оценивания при этом является не улучшение практик и организации исследований, а наказание институций, которые оказываются наименее эффективными по выбранным показателям, через урезание их бюджета. Это механическое применение библиометрии, которое заставляет академические институции гнаться за количеством публикаций, уже подвергалось суровой критике [122]. В Австралии подобные критические выступления заставили правительство отказаться от системы рейтингов, и в 2007 году она была заменена другой системой, основанной на экспертной оценке, «формируемой с опорой на ряд количественных показателей» [123]. Речь идет не о полном отказе от количественных индикаторов, а скорее о том, чтобы использовать их с учетом контекста, рассматривая те или иные критерии как помощь при вынесении оценки , вместо того чтобы принимать их за абсолютную и бесспорную истину только потому, что они выражены цифрами.
Как и следовало ожидать, работы, посвященные последствиям оценивания, основанного на количественных характеристиках статей, показывают, что исследователи сознательно подстраивают свое поведение под критерии, используемые при их оценке [124]. Как замечает Майя Бовалле в своей книге о показателях эффективности, введенных в академических организациях под влиянием новой менеджерской идеологии, «как только тот или иной показатель сконструирован и введен в использование, результаты по нему улучшаются уже просто потому, что на нем оказывается сконцентрировано всеобщее внимание» [125].
К счастью, организаций, механически включающих библиометрию в формулы финансирования, пока единицы, в то время как их большая часть не разделяет подобные подходы. Так, Совет канадских академий, проведя опрос об использовании библиометрических показателей при распределении финансирования в десятке стран, в заключение своего отчета подчеркивает, что «напрямую увязывать выделение денежных средств с количественными показателями является слишком большим упрощением и не представляет собой реалистичной стратегии» [126]. Остается лишь пожелать, чтобы другие организации подписались под этими словами, преодолев выжидательную и некритичную позицию, подобную той, что занимает, к примеру, Институт Франции [127]. Измерять и контролировать
Жаркие споры на предмет использования библиометрических показателей при оценке исследователей чаще всего оставляют за кадром важнейший аспект оценивания, а именно роль экспертной работы самих исследователей в этом процессе. Стремление таких институтов, как Европейский научный фонд (ESF), Европейский исследовательский совет (ERC) и Агентство по оценке научных исследований и высшего образования Франции (AERES), использовать ранжирование журналов по категориям A, B и C для упрощения и даже механизации индивидуального оценивания де-факто представляет собой своего рода тейлоризацию оценивания, деквалификацию необходимого для него экспертного знания.
Рейтинги журналов порождают легкопредсказуемые негативные эффекты, которые вовсе не компенсируются их весьма ограниченной потенциальной пользой. Например, некоторые статьи будут предлагаться в неподходящие для них журналы по той причине, что последним присвоен рейтинг A, и это будет только повышать риск их отклонения редакцией журнала. Другое предсказуемое последствие: новым динамичным журналам станет сложно пробивать себе дорогу, поскольку им не удастся быстро получить хорошее место в рейтинге, в результате чего исследователи будут неохотно предлагать им статьи. Мы не призываем здесь к увеличению числа журналов. В силу неизбежной ограниченности ресурсов невозможно бесконечно открывать новые журналы по данной дисциплине. Разумеется, невозможно и запретить создавать новые журналы, но когда на кону деньги налогоплательщиков, вполне законным является требование, чтобы решения о выделении субсидий были основаны на определенных критериях, подходящих для оценки журналов. Так, представляется оправданным утверждение, что журнал, 90 % авторов которого принадлежат к одной лаборатории, не отвечает потребностям всего научного сообщества и не заслуживает государственных субсидий.
Импакт-факторы и рейтинги журналов имеют еще одно косвенное последствие, о котором редко говорится. Стремление исследователей улучшить свои позиции ведет к отказу от изучения локальных, маргинальных и немодных тем. Такая тенденция особенно опасна для гуманитарных и социальных наук, объекты которых имеют по определению более локальный характер, чем у естественных наук. Очевидно, что некоторые темы менее годны для экспорта. Учитывая, что самые цитируемые журналы – англо-американские (а вовсе не международные), шансы опубликовать статью в престижном издании зависят от того, интересна ли данным журналам ее тематика. Исследователю, стремящемуся публиковаться в самых известных журналах, выгоднее изучать экономику США, чем специфику Банка Франции, поскольку последняя тема мало интересует американский журнал [128]. Социолог, работающий по интернациональной, а значит, делокализованной теме или занимающийся теорией, имеет больше шансов экспортировать свои статьи, чем социолог, занимающийся эмпирическим исследованием тех или иных аспектов своего общества. Например, сравнение между Хабермасом и Луманом легче найдет спрос на международном рынке, поскольку у него нет локального эмпирического содержания, которое уменьшило бы его привлекательность для американского журнала. А вот у желающего осуществить сравнительное исследование покупательского поведения на юге Франции и в Бретани могут возникнуть проблемы с интернационализацией результатов. Но неужели этот объект исследования менее важен, чем флуктуации Нью-Йоркской фондовой биржи? Угроза обесценивания и утраты интереса к локальным, но социологически значимым объектам исследований станет вполне реальной, если показатели цитируемости будут использоваться механически, без учета индексикальности (пользуясь этнометодологическим термином) объектов исследования гуманитарных и социальных наук [129]. Исследователи перестанут изучать некоторые темы из страха, что их не будут публиковать журналы категории А. Любопытно, что такие журналы чаще всего иностранные и на английском языке, тогда как журналы на национальных языках, как правило, попадают в класс В или С. Трудно не заметить своеобразной формы колониализма в некоторых рейтингах, предлагаемых Европейским научным фондом (ESF). Действительно, если судить только по общему числу ссылок, то почти неизбежно, англо-американские журналы будут всегда занимать верхние строчки рейтинга. Их, как правило, чаще цитируют в силу простого демографического эффекта: потенциальное число читателей по той или иной специальности больше для английского, чем, например, для французского языка [130]. Однако это число ни в коей мере не указывает на интернациональное или национальное происхождение этих ссылок. Особенно остро это ощущается в социальных и гуманитарных науках по причинам, о которых мы говорили выше.
Читать дальше