Pubblicato il 16/12/2025Tempo di lettura: 3 mins
Un numero crescente di istituzioni scientifiche sta rinunciando a strumenti come Web of Science e Scopus, le principali banche dati bibliometriche utilizzate per cercare articoli, tracciare le citazioni e valutare l’impatto della ricerca. Altre, in nome dell’Open Science, mettono in discussione i contratti con i grandi editori commerciali, come Springer ed Elsevier. Nonostante ciò, il tema delle citazioni e dell’impact factor resta centrale nella vita dei ricercatori e dei gruppi di ricerca. Per il Gruppo 2003, che presiedo, l’affiliazione stessa dipende dalla presenza nella lista dei highly cited researchers di Clarivate.
Eppure, l’uso sempre più meccanico di queste metriche ha iniziato a mostrare crepe profonde. Alain Schuhl, vicedirettore scientifico del CNRS, ha recentemente ribadito come l’abuso dell’impact factor nella valutazione abbia contribuito a distorcere le pratiche editoriali e, a cascata, le stesse pratiche di ricerca.
Alcuni sottolineano che la deriva bibliometrica sta avendo effetti perversi, soprattutto sulle nuove generazioni di ricercatori, spinte a scegliere argomenti «citabili» più che scientificamente necessari. Pratiche ambigue — talvolta vere e proprie frodi — vengono adottate sia da autori sia da editori per gonfiare h-index, citation index e impact factor. In un recente articolo su questa stessa rivista, Patrizia Caraveo spiega come le agenzie di produzione e vendita di articoli con garanzia di pubblicazione (le paper mills) aggirino i controlli delle riviste attraverso identità rubate e referee fantasma.
Si sta infatti creando un cortocircuito che rischia di premiare chi sa ottimizzare gli indicatori, più che chi genera reale conoscenza.
Sebbene citazioni e impact factor costituiscano metriche consolidate per valutare la portata di una ricerca, non sono sufficienti a definire appieno il profilo scientifico di un ricercatore. Forse la via più equilibrata consiste nel combinare approcci diversi: da un lato le metriche quantitative, che offrono un riferimento immediato; dall’altro una valutazione qualitativa, capace di contestualizzare i risultati e di coglierne aspetti meno immediatamente misurabili. Un’integrazione di questo tipo potrebbe aiutare a contenere sia l’eccesso di fiducia nei numeri sia, per contro, il rischio di valutazioni troppo generiche o legate a dinamiche personali.
Il problema sta diventando sempre più serio, e il futuro assetto dell’ANVUR, l’Agenzia nazionale di valutazione del sistema universitario e della ricerca, potrebbe amplificarne o mitigarne gli effetti in Italia. È il momento di avviare una discussione ampia e pluralista — anche conflittuale, se necessario — coinvolgendo le diverse comunità disciplinari, raccogliendo punti di vista alternativi e organizzando occasioni di confronto dedicate.
Intanto Scienza in rete pubblica un articolo di Gilberto Corbellini che solleva critiche articolate e anche molto dure contro l’uso della «numerologia» nella valutazione dei ricercatori. L’auspicio è che questo possa aprire un confronto ampio e non predefinito nei suoi esiti, e che arrivino anche contributi, analisi e proposte alternative, sia da parte di chi ritiene necessario superare l’attuale centralità degli indicatori bibliometrici, sia da parte di chi ne difende l’utilità o teme che non se ne possa fare a meno senza cadere in forme di valutazione troppo soggettiva.
In questa fase, più che conclusioni definitive, servono prospettive diverse, affinché si possa costruire un dibattito informato e, auspicabilmente, un sistema di valutazione più adeguato alle esigenze della ricerca.
Numeri che sostituiscono le idee: come la bibliometria sta cambiando la scienza
Pubblicato il 16/12/2025
«La scienza è diventata un gioco in cui si pubblica e si fa carriera, non un modo per cercare la verità. Le riviste e le metriche stanno distruggendo la scienza», Sydney Brenner, 2017.
«Non avrei mai fatto carriera in un sistema che richiede continuamente pubblicazioni. Il mio lavoro fondamentale non sarebbe stato possibile con l’attuale cultura dei paper», Peter Higgs, 2013.
«L’impact factor ha invaso la biologia come un virus. È una metrica tossica», Bruce Albert in un editoriale su Science, 2013.








