Covid-19/

L’ANVUR: si parte. Finalmente!

Tempo di lettura: 3 mins

Signori, si parte. Cinque anni dopo la sua costituzione, l’ANVUR – l’Agenzia Nazionale di Valutazione del sistema Universitario e della Ricerca – ha pubblicato lo scorso 7 novembre il bando per la «Valutazione della Qualità della Ricerca 2004-2010 (VQR 2004-2010). Un passo importante, auspicato anche dal Gruppo 2003 nei suoi sette suggerimenti al neopresidente del Consiglio Mario Monti (vedi editoriale).

Lo screening coinvolgerà 65.000 tra docenti universitari (circa 57.000) ricercatori degli Enti pubblici di ricerca (circa 8.000) e valuterà 216.000 prodotti (articoli scientifici, libri, review, brevetti e altro). Sarà un lavoro enorme, che impegnerà oltre 450 esperti in un processo che si concluderà tra un anno e mezzo abbondante, il 30 giugno 2013, con la pubblicazione di un Rapporto Finale. Il costo dell’operazione è di 5 milioni di euro.

Lo scopo non è quello di dare un voto ai singoli operatori dell’intero settore pubblico dell’alata educazione e della ricerca scientifica, ma di valutare le strutture: università, dipartimenti universitari, istituti di ricerca). La valutazione dovrebbe poi essere la base per una politica di finanziamento dell’università e della ricerca non fondata più unicamente sul metodo a pioggia, ma anche sul merito. Ai più bravi dovrebbero andare più soldi.

Il meccanismo di valutazione è imponente. A tratti farraginoso. In alcuni punti, controverso. In altri, forse, sbagliato in linea di principio. Ciò non toglie che l’annuncio di pubblicazione del bando debba essere accolto con un chiaro «Finalmente!».

Scienzainrete e il Gruppo 2003 hanno da sempre considerato essenziale stabilire chiari criteri di merito nel sistema universitario e della ricerca italiana. E dunque i motivi del «Finalmente!» sono noti ai nostri lettori.

Conviene allora prendere in considerazione il “discorso sul metodo”. Come avverrà la valutazione? Il bando è chiaro. Sono state individuate 14 aree disciplinari, ciascuna delle quali potrà contare su un numero di Esperti della Valutazione compreso tra un minimo di 9 (area “Scienze della Terra”) e un massimo di 79 (area “Scienze mediche”).

Questa struttura – GEV, Gruppo di Esperti della Valutazione (a proposito, come e da chi verranno scelti?) – prevede la partecipazione anche di alcuni referees non italiani e prenderà in esame un certo numero di “prodotti” (articoli su riviste scientifiche, libri, capitoli di libri, atti di congressi, edizioni critiche, traduzioni, commenti scientifici, brevetti, composizioni varie) realizzati dai “soggetti” da valutare: ricercatori (a tempo determinato e indeterminato), assistenti, professori associati e professori ordinari delle università; ricercatori e tecnologi degli Enti pubblici di ricerca.

Ciascuno dei “soggetti” – ahi, il linguaggio burocratico – dovrà presentare un numero definito di “prodotti”: i docenti universitari ne dovranno presentare 3, i ricercatori “senior” degli Enti pubblici 6. La differenza è dovuta al fatto che nelle università la ricerca è una parte del lavoro, l’altra parte è la didattica. E, dunque, la valutazione scientifica di un docente universitario è solo la metà della sua valutazione complessiva.

Alla fine la somma dei risultati ottenuti dai singoli ricercatori consentirà una valutazione credibile e comunque oggettiva di università, dipartimenti e istituti di ricerca.

Ciascun “prodotto” sarà sottoposto a una serie di valutazioni: sia di tipo bibliometrico (per esempio numero di citazioni ottenute da un articolo scientifico) sia di peer review.

La valutazione fondata su indicatori bibliometrici suscita molte perplessità, soprattutto (ma non solo) negli ambienti umanistici. In questo ambito disciplinare, infatti, la valutazione secondo criteri bibliometrici è meno affidabile e meno collaudata.

Ma ci sono critiche anche sul processo di peer review. Infatti verranno valutate di nuovo articoli che hanno già superato un processo internazionale di referaggio. È possibile che, su un certo numero di casi, ci siano divergenze. Ma è giusto ripetere con commissioni prevalentemente italiane un processo che è giunto già a buon fine con commissioni internazionali? Si può considerare più affidabile una peer review “italiana” rispetto a una peer review internazionale?

Ancora: cosa succederà se qualcuno tra i tanti attori – ricercatori, valutatori, università. Enti - non rispetterà i tempi?

In definitiva, non mancano le questioni aperte. Ma la presenza di tutte queste domande legittime – e altre ancora – non devono far dimenticare che la valutazione dell’università e della ricerca italiana è partita. Finalmente! 

Aiuta Scienza in Rete a crescere. Il lavoro della redazione, soprattutto in questi momenti di emergenza, è enorme. Attualmente il giornale è interamente sostenuto dall'Editore Zadig, che non ricava alcun utile da questa attività, se non il piacere di fare giornalismo scientifico rigoroso, tempestivo e indipendente. Con il tuo contributo possiamo garantire un futuro a Scienza in Rete.

E' possibile inviare i contributi attraverso Paypal cliccando sul pulsante qui sopra. Questa forma di pagamento è garantita da Paypal.

Oppure attraverso bonifico bancario (IBAN: IT78X0311101614000000002939 intestato a Zadig srl - UBI SCPA - Agenzia di Milano, Piazzale Susa 2)

altri articoli

Perché i dati di tracciamento vanno presi con le pinze

tracciamento

Dopo molti mesi di pandemia abbiamo capito che il tracciamento dei contatti è una misura indispensabile per cercare di contenere la diffusione del virus. Tuttavia, i dati non «parlano», ma devono essere attentamente interpretati. Per esempio, tracciare i contatti familiari o lavorativi è molto più semplice che tracciare quelli avvenuti in autobus. Come operare nel migliore dei modi?

Immagine: Pixabay License.

Purtroppo, l’ora della clausura è ritornata. I nuovi casi di Covid-19 in Italia stanno crescendo in modo esponenziale da alcune settimane, e a essi inevitabilmente si associa una pressione crescente sui servizi sanitari e, tragicamente, un aumento considerevole dei decessi.