На фоне кризиса в отношениях с Западом в России призывают перестать рассматривать цитируемость отечественных учёных в зарубежных журналах как главный критерий эффективности. После начала спецоперации на Украине российские исследователи начали сталкиваться с участившимися отказами со стороны иностранных журналов, хотя публично издатели открещиваются от дискриминации по политическим мотивам. Кроме того, эксперты напоминают о серьёзных недостатках наукометрического подхода. Например, популярный индекс Хирша зависит от научной тематики и может искусственно завышаться с помощью различных манипуляций. Представители научного сообщества рассказали RT, что можно сделать для создания системы оценки научной работы.
Российские учёные стали сталкиваться с трудностями при попытках опубликовать статьи в иностранных научных журналах. Об этом в беседе с RT рассказал ректор Санкт-Петербургского государственного химико-фармацевтического университета Игорь Наркевич.
«Случаи отказов участились в последние десять дней. Формально они не связаны со специальной операцией на Украине. Хотя всем понятно, что истинные мотивы отказа не совсем те, что указаны в ответных письмах», — отметил ректор.
В конце февраля о случае прямого отказа в публикации научной статьи российского автора в иностранном журнале написал в Facebook кандидат химических наук Вадим Батаев. Учёный рецензировал статью российского коллеги для Journal of Molecular Structure. Однако редакция журнала уведомила рецензента, что не может принять рукопись и приостанавливает рассмотрение статей, «поступивших из российских учреждений», из-за событий на Украине.
Journal of Molecular Structure выпускается одним из крупнейших в мире научных издательств Elsevier — компания издаёт более 2500 научных журналов. На её долю приходится свыше 20% всех выпускаемых на английском языке статей. Elsevier также владеет международной базой научных работ Scopus.
Издательство публично не поддержало отказ в публикации российским авторам. Компания разослала в редакции своих журналов письмо, в котором напомнила, что «любые ограничения на публикацию результатов научной деятельности не только принесут вред отдельным исследователям, которые могут иметь отличные от их правительства политические взгляды, но и авторам из других стран».
В издательстве подчеркнули, что считают любые ограничения неприемлемыми.
Впрочем, сейчас подобные умеренные заявления со стороны западных организаций являются скорее исключением. С подачи властей ряда стран сфера научного сотрудничества разрушается и подвергается политизации, отмечают эксперты.
Так, после начала спецоперации на Украине Евросоюз заморозил сотрудничество с российскими научно-исследовательскими структурами в рамках программы Horizon Europe. О расторжении сотрудничества с Россией заявило и британское агентство QS (Quacquarelli Symonds), российские и белорусские вузы не будут включаться в новые рейтинги. Компания также сообщила, что прекращает продвижение России в качестве страны для учёбы.
На этом фоне в правительстве РФ сообщили о планах отменить требование к наличию публикаций в зарубежных научных изданиях, включённых в системы цитирования Web of Science или Scopus для российских научных программ и государственных заданий.
Об этом на минувшей неделе сообщили в аппарате вице-премьера Дмитрия Чернышенко газете «Коммерсантъ». Отмечалось, что вице-премьер уже поручил Минобрнауки оперативно внедрить собственную систему оценки эффективности научных исследований. По каким показателям планируется оценивать работу учёных, пока не сообщается.
Сегодня одним из важных критериев оценки работы как отдельных специалистов, так и целых научных центров является публикационная активность. Она высчитывается, исходя из количества статей, опубликованных в международных базах научных изданий, таких как Web of Science и Scopus.
Методики количественного измерения результатов научного труда выделены в отдельную дисциплину — наукометрию. Она сформировалась в 1960-х годах, когда впервые был опубликован индекс научного цитирования. Самым распространённым наукометрическим показателем эффективности в последние годы стал индекс Хирша. Он был предложен американским физиком Хорхе Хиршем, а показатель эффективности труда учёного в этом случае высчитывается на основе двух цифр — количества публикаций автора и числа ссылок на его работы в статьях других учёных.
«Уязвимость к манипуляциям»
Наукометрический подход давно подвергается критике в научном сообществе. Так, исследователи отмечают, что большое количество ссылок на статью может быть связано не с её научной ценностью, а, напротив, с ошибочностью — в этом случае ссылаться на исследование будут его критики.
Как ранее рассказал в интервью RT глава Минобрнауки Валерий Фальков, в мире наукометрический подход активно применялся в 1990-е годы, но потом он подвергся переоценке. В России количественные показатели стали включаться в документы стратегического планирования позже, примерно в 2006—2007 годах.
«Сегодня мы уже видим, что эта система имеет серьёзную уязвимость к манипуляциям. У нас вырос целый квазирынок научных статей и научных журналов, которые по большому счёту к науке отношения не имеют», — отметил Фальков.
По мнению министра, нужно использовать дополнительные инструменты оценки работы учёных: например, количество внедрённых на практике технологий.
Напомним, решение сделать важным критерием публикации именно в зарубежных научных журналах было принято правительством ради повышения качества публикуемых исследований. Прежде учёные предпочитали посылать свои статьи в отечественные журналы.
Принятые меры возымели эффект, и количество российских публикаций, учтённых в индексе Web of Science, выросло с 2012 по 2017 год в 1,9 раза.
Однако, по мнению президента РАН Александра Сергеева, этот рост не только не повысил качество публикуемых работ, но и увеличил число «мусорных» статей — материалов, публикуемых в зарубежных журналах с низкими рейтингами. Долю таких статей Сергеев оценил в 2019 году в 66%.
В начале 2022 года компания Elsevier опубликовала обновлённую статистику за период с 2018 по 2021 год, согласно которой Россия заняла десятое место в мире по количеству научных публикаций, индексируемых в Scopus.
«В то же время востребованность российских публикаций в глобальном исследовательском сообществе ниже, чем у стран-лидеров: нормализованный по области знаний показатель цитируемости (FWCI) российских публикаций на четверть (25%) ниже среднемирового», — отметили авторы исследования.
«Слишком упрощённый подход»
Ведущий научный сотрудник геологического факультета МГУ имени Ломоносова доктор геолого-минералогических наук Владимир Сывороткин считает, что идеализировать западные научные журналы не стоит, поскольку их редакторы способны порой проявлять предвзятость.
Учёный привёл пример из личного опыта: престижный журнал Nature ранее отказался публиковать статью о причинах разрушения озонового слоя просто потому, что редакция издания считала этот вопрос окончательно решённым. Концепция российского учёного о том, что разрушителем озонового слоя является выделяемый из недр Земли водород, не укладывалась в представления западного научного сообщества.
По мнению Сывороткина, практика отправки всех научных исследований в иностранные издания вредна и создаёт условия для плагиата идей и наработок российских специалистов. «Знаю многих учёных, которые посылают свои статьи в эти издания — некоторые из них отклоняют. А потом вдруг в других работах за рубежом появляются похожие данные», — отметил Сывороткин в беседе с RT.
С этой точкой зрения не согласен Игорь Наркевич. По его словам, наукометрия доказала свою эффективность, особенно если речь идёт о передовых исследованиях.
«Она помогает оценивать уровень своего научного развития, искать партнёров в мировом научном пространстве. Так что в целом такая система оценки полезна, будь то иностранные Web of Science или Scopus или российский РИНЦ (Российский индекс научного цитирования. — RT). Негативной стороной наукометрии является то, что она иногда провоцирует учёных к погоне за высокой публикационной активностью в качестве самоцели», — пояснил Наркевич.
Он добавил, что сегодня наукометрия является всё же не единственным критерием, хотя и важным, а иногда даже определяющим.
«К сожалению, совершенно объективную систему оценки научного труда пока не смогли создать ни у нас, ни за рубежом. Цитируемость сегодня — один из показателей, наряду с такими требованиями, как наличие индустриального партнёра, количество патентов и так далее. К тому же прикладные и фундаментальные исследования должны оцениваться по-разному», — отметил он.
Ректор РУДН Олег Ястребов в беседе с RT пояснил, что эффективность научной деятельности измеряется не только количеством статей и их цитированием, она может выражаться в экономических показателях.
«Учитываются научно-исследовательские и опытно-конструкторские работы, выполненные по заказу предприятий реального сектора экономики. И здесь главный показатель не цитирование, а объём доходов, полученных от НИОКР(научно-исследовательские и опытно-конструкторские работы. — RT)», — отметил он.
Ястребов констатировал, что есть разные подходы к оценке эффективности научной деятельности. «Есть учёные, которые входят в топ самых цитируемых в мире, публикуя результаты фундаментальных исследований, а есть учёные, разработки которых стоят миллионы», — добавил ректор вуза.
Похожей точки зрения придерживается и научный руководитель Института астрономии РАН доктор физико-математических наук, член-корреспондент РАН, профессор Борис Шустов.
«Думаю, что полный отказ от публикаций в зарубежных научных журналах стал бы новым перекосом и ошибкой», — отметил учёный в разговоре с RT. Впрочем, он согласился с тем, что наукометрический подход имеет много недостатков.
«Наукометрия удобна для министерства и чиновников, многие из которых мало разбираются в реальной науке, но должны ей как-то управлять. Но это слишком упрощённый подход, потому что есть такие области научных знаний, в которых в принципе нельзя добиться высоких наукометрических показателей: математика, гуманитарные науки и тому подобное», — отметил Шустов.
При этом импакт-фактор (научная значимость) журнала, в котором была опубликована статья, тоже зависит от его тематики.
«Например, биологические, медицинские, химические журналы публикуют очень много статей, потому что это обусловлено спецификой этих наук, которые заняты изучением достаточно насущных для людей вопросов. Много статей, много ссылок, поэтому у этих журналов заоблачные рейтинги и высокий импакт-фактор. Зато настоящих математиков очень мало — кто обеспечит безумное количество ссылок на их работы? А ведь от количества ссылок зависит индекс Хирша», — добавил Шустов.
По его словам, довершает ситуацию правило, согласно которому за публикацию в отечественном непереводном журнале российский учёный получает намного меньше очков, чем за публикацию в зарубежном издании.
«Получается, что мы своими руками понижаем престиж отечественных научных журналов», — отметил Шустов.
Профессор напомнил, что до внедрения наукометрии использовался другой подход, а критерием служили экспертные оценки. Например, группы специалистов для оценки работы институтов формировала Академия наук.
«На самом деле для правильной оценки работы учёных, научных институтов нужно использовать оба подхода — и экспертный, и наукометрический. Нужен комплексный, умный подход», — подытожил Борис Шустов.