Immaginate un ricercatore che deve comunicare il proprio h-index in una domanda di finanziamento. Apre Web of Science: il numero è, diciamo, 31. Apre Scopus: 38. Apre Google Scholar: 47. Tre piattaforme, tre numeri, nessuna contraddizione interna a ciascuna — eppure nessuna convergenza tra loro. Quale valore è quello “giusto”? La domanda è mal posta, e il disagio che genera è il punto di partenza di questo articolo.
Si discute molto, e spesso con toni accesi, dei limiti dei criteri accademici di valutazione: h-index, citazioni, impact factor. Le critiche, almeno in parte, sono fondate: si tratta di indicatori imperfetti, che risentono di dinamiche cumulative, premiano certe strategie e non esauriscono affatto la qualità di un lavoro scientifico. Possono incentivare comportamenti opportunistici, orientare la ricerca verso temi più “citabili” che scientificamente necessari. Molti segnalano effetti perversi soprattutto sulle nuove generazioni; a questo si aggiungono pratiche ambigue – e talvolta vere e proprie frodi – adottate per gonfiare h-index e numero di citazioni.
Ma fermarsi qui sarebbe miope. Questi criteri non stabiliscono la verità scientifica, e non sono misure assolute del valore. Tuttavia svolgono una funzione strutturale: introducono un vincolo. Non dicono tutto, ma impediscono che tutto venga ridotto a percezione, retorica, riconoscimento informale o fedeltà di scuola. Più che misure definitive del merito, sono tracce empiriche di quanto un’idea è stata esposta al giudizio della comunità: quante volte una pubblicazione è stata letta, usata, discussa, contestata, integrata. In un sistema complesso come quello scientifico, questo non è poco.
Il rischio, dunque, non sta soltanto nell’abuso delle metriche, ma anche nella loro delegittimazione totale. Quando si smontano strumenti imperfetti senza sostituirli con criteri più robusti, si apre uno spazio in cui qualsiasi parametro diventa negoziabile. È lì che il contenuto tende a retrocedere, mentre avanzano i nomi, le appartenenze, il prestigio evocato, i riferimenti selettivi usati come garanzia implicita. Gli indicatori vanno usati non per stabilire chi “vale di più”, bensì per evitare che vengano sostituiti da proxy reputazionali fragili e incontrollabili.
La via più equilibrata consiste probabilmente nel combinare le metriche quantitative con una valutazione qualitativa capace di contestualizzare i risultati e di cogliere aspetti che i numeri da soli non vedono. Anche in Italia, il futuro assetto dell’ANVUR potrebbe amplificare o mitigare questi problemi.
Tre database, tre misure diverse
Per questo il dibattito attuale sulla bibliometria merita di essere preso sul serio. Alcune istituzioni scientifiche stanno rinunciando a strumenti come Web of Science e Scopus, mentre altre, in nome dell’Open Science, mettono in discussione i contratti con i grandi editori commerciali. Eppure citazioni, impact factor e indicatori bibliometrici continuano a pesare moltissimo nella vita dei ricercatori. Basti pensare che, per il Gruppo 2003 — associazione che riunisce i ricercatori italiani più citati a livello internazionale, di cui chi scrive è presidente — l’affiliazione stessa dipende dalla presenza dei candidati membri in una lista di Highly Cited Researchers, proprio per evitare scelte arbitrarie e pressioni indebite.
Dentro questo quadro, è essenziale evitare un equivoco molto diffuso: pensare che citazioni e h-index siano numeri oggettivi, stabili e universali. Non è così. Lo stesso articolo può avere conteggi diversi a seconda della banca dati consultata; lo stesso autore può esibire h-index differenti; e perfino la nozione di “paper molto citato” cambia a seconda della piattaforma.
I principali fornitori di questi indicatori sono tre: Clarivate, che gestisce Web of Science; Elsevier, che offre Scopus; e infine Google, con il suo Google Scholar, che adotta una logica radicalmente diversa. La formula dell’h-index, almeno sulla carta, è uguale per tutti: un autore ha h-index pari a n se ha pubblicato almeno n lavori che hanno ricevuto almeno n citazioni ciascuno. Il punto è che quel calcolo dipende interamente da quali pubblicazioni e quali citazioni il sistema decide di considerare.
Web of Science: un ecosistema selettivo e curato
Web of Science (WoS) lavora all’interno di un perimetro selettivo. Il suo h-index si basa sulle pubblicazioni presenti nella Web of Science Core Collection e sulle citazioni registrate all’interno di quello stesso ecosistema. Vale la pena sottolineare che Web of Science non è un blocco monolitico: esistono livelli diversi di indicizzazione all’interno della stessa piattaforma, e non tutte le riviste indicizzate da WoS fanno parte della Core Collection, quella su cui si calcolano le metriche principali. Il risultato è un indicatore più controllato e più stabile dal punto di vista bibliometrico, ma anche meno inclusivo. Se un lavoro circola molto in repository, preprint, libri, tesi o canali periferici rispetto al nucleo indicizzato, parte di quella ricezione può restare fuori dal conto.
Scopus: ampiezza disciplinare, ma con limiti storici
Scopus segue una logica simile, ma con un corpus diverso. Anche qui l’h-index nasce dalle pubblicazioni attribuite al profilo autore e dalle citazioni raccolte nel database. La formula è la stessa, ma cambiano copertura temporale, ampiezza disciplinare, riviste incluse, atti di convegno e profondità archivistica. Per produzioni molto datate, la copertura storica di Scopus può restituire un’immagine meno completa rispetto ad altri strumenti: questo può incidere significativamente per carriere lunghe o per ricercatori con una produzione importante negli anni Ottanta e Novanta.
Nel mondo Elsevier, lo strumento più avanzato per l’analisi bibliometrica è SciVal: una piattaforma analitica a pagamento che aggrega e visualizza in modo analitico i dati già presenti in Scopus e consente di individuare le pubblicazioni collocate nelle fasce più alte per citazioni — il top 1% o il top 10% — e di calcolare indicatori normalizzati di impatto. Non si tratta di un archivio, ma di uno strumento di analisi, che molte istituzioni accademiche usano per valutazioni comparative.
Per i ricercatori, il riferimento più noto nel mondo Scopus-Elsevier è il database Stanford-Elsevier dei top-cited scientists (costruito da Ioannidis e colleghi). Va precisato che si tratta di un prodotto della ricerca accademica, non un servizio commerciale diretto di Elsevier: utilizza i dati Scopus ma applica una metodologia propria per classificare gli studiosi nel top 2% mondiale del proprio settore. Nonostante questa distinzione, è ormai usato da molte università — anche italiane — come indicatore di eccellenza nei processi di valutazione.
Google Scholar: il più inclusivo, il meno filtrato
Google Scholar è il più inclusivo dei tre. Non si limita alle riviste strettamente indicizzate da un archivio selettivo, ma intercetta una quantità molto più ampia di materiali accademici: articoli, tesi, libri, preprint, working paper, versioni depositate in archivi istituzionali e altri documenti scientifici. Scholar in alcuni casi può intercettare anche materiali non tradizionali (come le slide di presentazioni a seminari) reperibili online. Questo è al tempo stesso il suo punto di forza e il suo limite: da un lato, cattura la circolazione reale di un’idea nell’ecosistema scientifico allargato, compresa quella che avviene al di fuori dei circuiti commerciali; dall’altro, una base così aperta richiede più attenzione nella pulizia del profilo. Duplicati, versioni multiple dello stesso articolo, varianti bibliografiche e fusioni tra record possono influenzare direttamente le metriche mostrate, gonfiando artificialmente i conteggi.
Scholar non ha una designazione formale equivalente agli Highly Cited di Clarivate. La sua forza non sta nella certificazione selettiva, ma nell’ampiezza. È utile quando si vuole capire quanto un lavoro circoli nell’ecosistema accademico allargato; molto meno quando serve un’etichetta formalizzata, comparabile e costruita con regole editoriali dichiarate.
Cosa significa davvero “highly cited”
C’è poi un’altra etichetta che compare spesso nelle discussioni sulla valutazione della ricerca: quella di highly cited. Per un articolo, essere highly cited per Clarivate non significa genericamente essere molto citato. Significa rientrare nel top 1% per numero di citazioni nel proprio campo disciplinare e nel proprio anno di pubblicazione, secondo i criteri di Essential Science Indicators basati sulla Web of Science Core Collection. Clarivate non confronta semplicemente tutti gli articoli tra loro: confronta ciascun lavoro con i suoi pari disciplinari e temporali. Un articolo di matematica non compete con uno di biomedicina sul piano dei volumi citazionali grezzi; compete con gli articoli del suo campo e del suo anno. La soglia cambia da settore a settore e da anno a anno — un meccanismo pensato per normalizzare almeno in parte le forti differenze tra discipline, dove le abitudini di citazione variano enormemente.
Analogamente, Clarivate stila annualmente la lista degli Highly Cited Researchers: vengono considerati gli studiosi che hanno firmato più articoli entrati nel top 1% per campo e anno in una finestra pluriennale. Ma la classificazione non è del tutto automatica: vengono fatte verifiche aggiuntive, usati filtri di integrità e aggiunte valutazioni supplementari per individuare pratiche anomale e profili distorti. Per diventare membri del Gruppo 2003 è necessario apparire in questa lista almeno un anno.
Distorsioni da non ignorare: autocitazione, omonimi, differenze disciplinari
Accanto alle differenze tra database, esistono altri fattori che distorcono le metriche e che meritano almeno una menzione. Il primo è l’autocitazione: spesso trascurata nel dibattito pubblico, è centrale per capire le distorsioni dell’h-index. Un ricercatore che cita sistematicamente i propri lavori può gonfiare significativamente i propri indicatori, e i database reagiscono in modo diverso a questo fenomeno.
Il secondo problema è la disambiguazione degli autori: omonimie, varianti del nome, e cambi di affiliazione creano profili duplicati o incompleti, specialmente su Scopus e WoS. Chi ha pubblicato sotto nomi diversi nel corso della carriera – per matrimonio, traslitterazione o semplice abitudine editoriale – può trovarsi con una parte della propria produzione “scomparsa” da un database e presente in un altro.
Il terzo fattore è rappresentato dalle forti differenze disciplinari. Il divario tra scienze biomediche (dove si citano molto e in fretta) e matematica o scienze umane (con cicli citazionali molto più lunghi e volumi molto più contenuti) è tale da rendere qualsiasi confronto diretto tra discipline un esercizio potenzialmente fuorviante. La normalizzazione per campo, adottata da Clarivate per gli Highly Cited, rappresenta un tentativo di mitigare questo problema.
Conclusione: il numero è un’informazione parziale
In definitiva, il problema non è stabilire quale piattaforma detenga la “verità”, poiché ogni database misura un fenomeno leggermente diverso. Dobbiamo accettare che citazioni e h-index non sono misure neutre, ma prodotti diretti del sistema che li genera.
Per dare un senso reale a un numero, la domanda cruciale non è solo “quanto?”, ma deve articolarsi su tre livelli:
- Secondo chi? (La Fonte): bisogna identificare se il dato provenga dalla selettività curata di Web of Science, dall’ampiezza strutturata di Scopus o dall’inclusività non filtrata di Google Scholar, poiché è il database a fornire le coordinate e il significato del numero.
- In quale contesto? (La Disciplina): il valore va calato nella realtà del settore scientifico di riferimento; per esempio, i volumi e i tempi citazionali della biomedicina sono profondamente diversi da quelli della matematica o delle scienze umane.
- Rispetto a cosa? (Il Benchmark): un numero grezzo è muto se non viene confrontato con i propri pari disciplinari e temporali attraverso meccanismi di normalizzazione, che permettono di mitigare le distorsioni tra campi differenti.
Finché la piena comprensione della fonte dati, del contesto disciplinare e del confronto con i benchmark non diventerà un requisito essenziale per ricercatori e valutatori, continueremo a confrontare indicatori che, pur sembrando identici, esprimono realtà inconciliabili.
In ultima analisi, occorre però tenere presente che le metriche sono strumenti intrinsecamente incompleti: esse non possono esaurire la complessità del valore scientifico né stabilire, da sole, il valore di un ricercatore, per fare questo è sempre necessaria una valutazione qualitativa.






