fbpx Misuriamo il merito con l'h | Scienza in rete

Misuriamo il merito con l'h

Primary tabs

Read time: 4 mins

Con l'intervento di Gaetano Di Chiara, "Scienza in rete" rilancia il dibattito sui criteri di valutazione della ricerca, così importante per il futuro dell'università e della ricerca nel nostro paese. Invitiamo i lettori a partecipare alla discussione lasciando un commento.

Con l'intenzione di «promuovere e sostenere l'incremento qualitativo delle attività delle università statali e di migliorare l'efficacia e l'efficienza nell'utilizzo delle risorse» (legge 9 gennaio 2009 numero 1), 474 milioni di euro sono stati ripartiti tra le Università sulla base di una valutazione della ricerca. Di questi, il 70% è stato assegnato sulla base della partecipazione a finanziamenti pubblici nazionali (PRIN e FIRB), europei e internazionali.

E' chiaro che misurare la qualità e la produttività della ricerca scientifica sulla base dei finanziamenti pubblici ottenuti sarebbe come valutare l'efficenza dello smaltimento dei rifiuti sulla base dei fondi a quel fine impegnati. Napoli avrebbe in questo modo la palma d'oro! Lo stesso discorso potrebbe farsi per la sanità e così via. Perciò, la distribuzione alle Università dei fondi per la premialità è un perfetto esempio del fatto che una corretta politica del merito è strettamente dipendente dall'applicazione di appropriati criteri di valutazione: se questi sono fallaci, il principio meritocratico può tramutarsi nel suo opposto. Nel caso della valutazione della ricerca, questa deve partire dall'analisi dei suoi prodotti, cioè lavori scientifici e, per quella applicata, anche brevetti. L'uso dei finanziamenti come parametro di valutazione ha un senso solo in relazione ai prodotti, al fine, eventualmente, di calcolare il rapporto costo/beneficio.

Ma come si valutano i prodotti? Per selezionare una serie di progetti di ricerca nell'ambito di un programma di finanziamento di specifici temi di ricerca, come è il caso dei programmi di ricerca europei o dei progetti strategici nazionali, il sistema corrente è quello della cosiddetta "study session", cioè del confronto diretto tra i membri di una commissione di esperti, possibilmente internazionale. E' evidente che questo metodo non è applicabile a una scala più ampia, per esempio alla valutazione della produzione scientifica di un gran numero di lavori scientifici all'interno dello stesso settore disciplinare. E' questo il caso del CIVR, istituito nel 2004 per valutare la ricerca nazionale nel triennio 2001-2003 ed è anche quello utilizzato per selezionare i progetti di ricerca del PRIN. In questo caso la valutazione di ciascun prodotto della ricerca è affidata ad almeno due valutatori anonimi, secondo uno schema e una metodologia decisa da un panel di esperti per ciascuna delle 14 aree disciplinari o da un comitato di garanti. Gli esperti sono contattati e trasmettono i loro pareri al panel e interagiscono tra loro in maniera anonima e via internet. I problemi di tale metodo sono l'estrema parcellizzazione della valutazione che rende difficile se non impossibile l'applicazione di un uniforme metro di valutazione e consente di fatto, sotto la copertura dell'anonimato, l'esercizio della più estrema soggettività di giudizio.

I problemi connessi all'utilizzazione di questa procedura ha portato all'introduzione, nella valutazione della ricerca su scala nazionale e internazionale, di metodi basati su parametri bibliometrici che esprimono l'impatto dei lavori sulla comunità scientifica, quantificato in termini di citazioni. Il primo e più antico e tuttora molto diffuso indice bibliometrico è l'impact factor (IF),la cui obsolescenza come indice di valutazione della ricerca è di natura squisitamente pratica: la disponibilità di banche dati che forniscono gratuitamente le citazioni dei lavori e di software capaci di calcolare istantaneamente, utilizzando quelle citazioni, una serie di parametri utili per valutare la ricerca.

Attualmente sono disponibili tre diverse banche dati, due a pagamento, ISI Webof Science (Wos) e Scopus, e una gratuita, Google Scholar, i cui dati possono essere analizzati con due diversi software, Publish or Perish e un add-on di Mozilla Firefox.

Trai parametri ricavabili dalle banche dati ritenuti più attendibili si segnala l'indice di Hirsch di un autore (h), che rappresenta il numero di lavori di quell'autore che hanno ottenuto un numero di citazioni non inferiore a quel numero. L'h è un vero e proprio uovo di Colombo dato che esprime in maniera mirabilmente concisa la consistenza e affidabilità dell'impatto della produzione scientifica di un ricercatore.

Non c'è dubbio che suona fortemente riduttiva la pretesa di esprimere con un unico numero il valore della ricerca di una vita o la produttività di un'intera istituzione. Ma, al fine di valutare la ricerca, l'indice di Hirsch è comunque preferibile a parametri, come la partecipazione a progetti nazionali o europei, correntemente utilizzati dal Ministero dell'Università.

Siamo convinti che le classifiche delle istituzioni basate su un parametro obiettivo, trasparente e certamente conciso come l'h possa contribuire, eventualmente normalizzato, all'attuazione di una politica del merito nel finanziamento della ricerca e dell'Università in Italia.


Scienza in rete è un giornale senza pubblicità e aperto a tutti per garantire l’indipendenza dell’informazione e il diritto universale alla cittadinanza scientifica. Contribuisci a dar voce alla ricerca sostenendo Scienza in rete. In questo modo, potrai entrare a far parte della nostra comunità e condividere il nostro percorso. Clicca sul pulsante e scegli liberamente quanto donare! Anche una piccola somma è importante. Se vuoi fare una donazione ricorrente, ci consenti di programmare meglio il nostro lavoro e resti comunque libero di interromperla quando credi.


prossimo articolo

Il dubbio e il desiderio

--