Науковий карго-культ: як збільшення кількості публікацій перетворює українську науку на ілюзію.
Автор Дмитро Маслов Кандидат економічних наук, старший науковий співробітник відділу інтеграції науки, освіти та бізнесу ДУ "Інститут ринку і економіко-екологічних досліджень НАН України".
Україна стрімко нарощує кількість наукових публікацій. Якщо рахувати абсолютну кількість статей у міжнародних наукометричних базах, ми виглядаємо як країна з динамічною науковою системою. Але варто подивитися глибше -- і цей оптимізм розсипається. Зростання кількості не означає зростання якості. Систему можна змусити продукувати тексти -- але чи можна змусити її займатися наукою, а не її імітацією?
Поштовхом до цієї дискусії стала стаття, що розглядає українські наукові журнали в системах Scopus та Web of Science. У ній зростання числа журналів і статей подається як свідчення успіхів науки, тоді як включення до авторитетних міжнародних видань вважається загальноприйнятим критерієм якості. Відповідно, виникає простий висновок: збільшення кількості публікацій у "правильних" журналах свідчить про розвиток науки.
Додатковим свідченням є те, що низка українських журналів потрапила до вищих квартилів (тобто до "елітної ліги" наукових публікацій) в обох базах даних, зокрема, значна їх частина стосується історичних дисциплін. Це дозволяє зробити висновок про відсутність упереджень щодо гуманітарних наук та вказує на те, що зростання інтересу до української історії, викликане війною, відкрило гуманітарним науковцям нові можливості для міжнародного визнання.
Із цієї ж логіки випливає практичний висновок: журнали, що не індексуються в міжнародних базах, варто поступово виводити з обігу. Після посилення таких вимог 2018 року кількість українських журналів і статей у міжнародних базах справді зросла. Та в цих "досягнень" є темна сторона.
У період з 2016 по 2018 роки публікації в наукових журналах, що входять до баз Scopus та Web of Science, стали обов'язковою умовою для здобуття наукових звань, а згодом і для отримання ліцензій на здійснення освітньої діяльності. Результати виявилися вражаючими: за кількістю публікацій на одного науковця ми випередили такі науково розвинуті країни, як США, Японія, Німеччина та інші.
Однак для розвитку науки потрібні не тільки дослідники, а й відповідні ресурси: фінансування для лабораторного обладнання, проведення польових досліджень, організації опитувань, а також доступу до наукової літератури та програмних засобів. Тому більш доцільним є оцінювання кількості публікацій у співвідношенні до обсягу інвестицій.
На цьому діаграмі розвинені країни розташувалися в нижній частині, тоді як Україна опинилася поруч із Іраком, Пакистаном і Тунісом. Чи свідчить це про те, що наша наука має значно більшу ефективність, ніж у Японії чи США? Якщо оцінювати за наукометричними показниками — то, безумовно, так. Але насправді велика кількість публікацій не завжди відображає реальний рівень наукових досягнень.
Сучасна наука переживає глибоку кризу через одержимість кількісними показниками. Фокус змістився з наукових відкриттів на досягнення найбільшої кількості публікацій, цитувань і найвищих місць у рейтингах. Результат? Лавина "сміттєвих" публікацій, фальсифікацій та імітації.
Для порівняння: у 1950-х роках вчені публікували свої другі статті в середньому через 22 роки після випуску першої. У 2010-х цей проміжок скоротився до трьох років. Таким чином, продуктивність зросла більш ніж у сім разів. Але чи означає це, що якість науки також покращилася?
Проблеми виникли внаслідок, здавалося б, благородної мети: розробити "об'єктивну" систему оцінки. До традиційного суб'єктивного процесу експертного рецензування були додані різноманітні показники: кількість публікацій, цитувань та індекс Гірша.
Однак спрацював закон Гудхарта: коли певний показник стає метою, він втрачає свою цінність як показник. Деякі члени академічної спільноти почали використовувати нові правила для штучного завищення своїх показників: плагіат, фрагментація досліджень на дрібні статті, платні сервіси "паперових фабрик", "хижацькі видання" та "цитувальні картелі". У той же час ті, хто відмовлявся маніпулювати даними, опинялися на низьких позиціях у рейтингах і без фінансової підтримки. А найвправніші у маніпуляціях продовжували успішно будувати кар'єру та просувати цю систему далі.
У 2024 році філософська спільнота була вражена скандалом: три "псевдонаукові" журнали опинилися в топ-10 найпрестижніших видань за версією CiteScore. В галузі математики університети, які не мають кафедр з математики, стали лідерами за кількістю робіт з високими цитуваннями, перевершивши такі заклади, як Принстон і Стенфорд. Хижацькі журнали, що публікують неякісні матеріали, почали з'являтися лише з розвитком наукометрії та поширенням рейтингів наукових видань.
Продуктивність у виробництві статей не має меж -- і цього не розуміють захисники наукометрії. Сьогодні вже є автори, які публікують сотні (!) наукових статей на рік, -- і їх стає дедалі більше. Водночас, для порівняння, продуктивність бізнесу є обмеженою. Якщо фірма виробить забагато, то не зможе все продати, й доведеться або знижувати ціну, або просто знищувати частину продукції. Гонитва ж за наукометричними показниками призведе до того, що штучний інтелект і ферми з майнінгу наукових публікацій обженуть будь-якого чесного науковця. Це вже відбувається, й Україна попереду в цих перегонах.
Одним із найбільш яскравих виявів кризи в науковій сфері є постійне зростання частки відкликаних статей в міжнародних наукометричних базах. Мова йде про публікації, які після їх виходу з наукового обігу відкликаються через серйозні порушення, такі як фальсифікація даних, плагіат, маніпуляції під час рецензування або методологічні помилки, які роблять отримані висновки ненадійними. Це свідчить про те, що сучасні засоби боротьби з маніпуляціями у наукових публікаціях є малоефективними. Але як можна довіряти науці, якщо ймовірність маніпуляцій зростає з кожним днем?
Суть проблеми полягає в намаганні підрахувати те, що не підлягає кількісному вимірюванню. Наукові відкриття мають різну природу. Одна публікація може кардинально змінити погляди та вплинути на життя багатьох людей, в той час як інша просто залишиться на сторінках журналу. Спроба порівнювати статті та оцінювати їх кількісно нагадує порівняння жовтого, кислого та сумного.
Продуктивність можна вимірювати лише для якісно однорідних речей. Науковий продукт за визначенням унікальний -- це нове знання, відмінне від попереднього. Тому будь-які спроби кількісного оцінювання науки методологічно хибні.
За кризою стоять не лише методологічні помилки, а й економічні інтереси. Велика п'ятірка видавців -- Elsevier, Wiley, Taylor & Francis, Springer Nature та SAGE -- заробляють мільярди на публікаціях. Їхня норма прибутку сягає 40%, що характерно для монополій. Ця бізнес-модель паразитує на науці: дослідники безплатно пишуть статті, безплатно їх рецензують, а потім їхні ж університети чи самі вчені купують доступ до результатів за шалені гроші. Що більше статей, то більші прибутки видавців. Доходи Elsevier зросли уп'ятеро з 1995 року -- саме тоді почали масово впроваджувати наукометричні показники. Від цієї системи виграють також ті університети й науковці, які вже налагодили промисловий процес маніпуляцій та імітацій.
В Україні ситуація особливо драматична через поєднання жорстких вимог публікуватися в міжнародних виданнях та мізерного фінансування науки.
Результат полягає в масовій імітації. Науковці змушені "виробляти" публікації, аби задовольнити формальні вимоги, проте справжніх ресурсів для ґрунтовних досліджень практично немає. Саме тому Україна вирізняється високими показниками "продуктивності", але це продуктивність створення паперів, а не справжніх наукових досягнень.
Проте для МОН, здається, цих рекордів недостатньо. 2024 року затвердили нову методику атестації, яка також використовує наукометричні показники як основний метод оцінювання. За підсумками атестації держава визначає наукові установи, які за формальними показниками визнані найкращими (категорія "А"), і саме вони отримують додаткове фінансування. Тож можемо очікувати нових рекордів "продуктивності". Іраку, начувайся.
Заступник міністра освіти Денис Курбатов висловлює думку, що будь-яка формула є "значно ефективнішою за традиційний підхід". Проте, насправді ця формула має на меті знищення експертного оцінювання, а не його підвищення. Це питання не пов'язане з якістю наукових досліджень.
Остання ініціатива Міністерства освіти і науки України, відома як "Національна система дослідників", має на меті створення рейтингу для всіх науковців, ґрунтуючись на кількості їхніх публікацій, патентів та інших вимірювальних показників. Для 2650 найкращих дослідників передбачені стипендії в розмірі 10 тисяч гривень. Однак, реалізація цієї системи, ймовірно, призведе до нових рекордів у кількості публікацій, але водночас ускладнить становище тих науковців, які прагнуть займатися справжніми дослідженнями, а не займатися графоманством або фальсифікацією патентних документів.
Виходом може бути кардинальна зміна системи оцінювання. Потрібно відмовитися від підрахунку публікацій і повернутися до змістовної експертизи колег. Так, це суб'єктивні оцінки, але завдяки їм наука розвивалася протягом усієї своєї історії до 1990-х років і запровадження наукометрії. Ця система не є досконалою, суб'єктивні оцінки страждають від упереджень, проте це компенсується механізмами сліпого рецензування, залученням кількох експертів замість одного тощо. Водночас система наукометричних оцінок є об'єктивно хибною, вона вбиває науку.
Сучасні цифрові технології здатні підвищити прозорість експертного оцінювання, створюючи відкриті платформи, на яких можна побачити, хто проводить оцінку досліджень і яким чином. Тут репутація експерта стане важливим фактором, що вплине на значимість його думки. Однак варто зазначити, що цей процес не буде швидким. Простих рішень більше не існує.
Для швидкого реагування можна запровадити тимчасове обмеження: не більш як три публікації на мільйон доларів фінансування, що ближче до показників розвинених країн. Це може змістити акцент із кількості на якість. Краще одна значуща публікація, ніж сотні таких, що імітують науку.
Наука — це не просто маніпуляція з даними, а складний процес наближення до істини. Якщо ми продовжимо дотримуватися сучасної моделі "паперових досягнень", ми ризикуємо замінити справжніх науковців на ефективних менеджерів, які займаються цитуваннями, і на штучний інтелект. Час визнати: якість не може бути результатом лише кількісних показників. Або ми повернемо в академічну сферу живу експертизу та культуру глибокого діалогу, або наша наука залишиться тільки яскравим, але порожнім фасадом у міжнародних звітах. Відновлення академічної спільноти вимагатиме складного процесу повернення довіри до експертного оцінювання.