fbpx L’ANVUR: si parte. Finalmente! | Scienza in rete

L’ANVUR: si parte. Finalmente!

Primary tabs

Tempo di lettura: 3 mins

Signori, si parte. Cinque anni dopo la sua costituzione, l’ANVUR – l’Agenzia Nazionale di Valutazione del sistema Universitario e della Ricerca – ha pubblicato lo scorso 7 novembre il bando per la «Valutazione della Qualità della Ricerca 2004-2010 (VQR 2004-2010). Un passo importante, auspicato anche dal Gruppo 2003 nei suoi sette suggerimenti al neopresidente del Consiglio Mario Monti (vedi editoriale).

Lo screening coinvolgerà 65.000 tra docenti universitari (circa 57.000) ricercatori degli Enti pubblici di ricerca (circa 8.000) e valuterà 216.000 prodotti (articoli scientifici, libri, review, brevetti e altro). Sarà un lavoro enorme, che impegnerà oltre 450 esperti in un processo che si concluderà tra un anno e mezzo abbondante, il 30 giugno 2013, con la pubblicazione di un Rapporto Finale. Il costo dell’operazione è di 5 milioni di euro.

Lo scopo non è quello di dare un voto ai singoli operatori dell’intero settore pubblico dell’alata educazione e della ricerca scientifica, ma di valutare le strutture: università, dipartimenti universitari, istituti di ricerca). La valutazione dovrebbe poi essere la base per una politica di finanziamento dell’università e della ricerca non fondata più unicamente sul metodo a pioggia, ma anche sul merito. Ai più bravi dovrebbero andare più soldi.

Il meccanismo di valutazione è imponente. A tratti farraginoso. In alcuni punti, controverso. In altri, forse, sbagliato in linea di principio. Ciò non toglie che l’annuncio di pubblicazione del bando debba essere accolto con un chiaro «Finalmente!».

Scienzainrete e il Gruppo 2003 hanno da sempre considerato essenziale stabilire chiari criteri di merito nel sistema universitario e della ricerca italiana. E dunque i motivi del «Finalmente!» sono noti ai nostri lettori.

Conviene allora prendere in considerazione il “discorso sul metodo”. Come avverrà la valutazione? Il bando è chiaro. Sono state individuate 14 aree disciplinari, ciascuna delle quali potrà contare su un numero di Esperti della Valutazione compreso tra un minimo di 9 (area “Scienze della Terra”) e un massimo di 79 (area “Scienze mediche”).

Questa struttura – GEV, Gruppo di Esperti della Valutazione (a proposito, come e da chi verranno scelti?) – prevede la partecipazione anche di alcuni referees non italiani e prenderà in esame un certo numero di “prodotti” (articoli su riviste scientifiche, libri, capitoli di libri, atti di congressi, edizioni critiche, traduzioni, commenti scientifici, brevetti, composizioni varie) realizzati dai “soggetti” da valutare: ricercatori (a tempo determinato e indeterminato), assistenti, professori associati e professori ordinari delle università; ricercatori e tecnologi degli Enti pubblici di ricerca.

Ciascuno dei “soggetti” – ahi, il linguaggio burocratico – dovrà presentare un numero definito di “prodotti”: i docenti universitari ne dovranno presentare 3, i ricercatori “senior” degli Enti pubblici 6. La differenza è dovuta al fatto che nelle università la ricerca è una parte del lavoro, l’altra parte è la didattica. E, dunque, la valutazione scientifica di un docente universitario è solo la metà della sua valutazione complessiva.

Alla fine la somma dei risultati ottenuti dai singoli ricercatori consentirà una valutazione credibile e comunque oggettiva di università, dipartimenti e istituti di ricerca.

Ciascun “prodotto” sarà sottoposto a una serie di valutazioni: sia di tipo bibliometrico (per esempio numero di citazioni ottenute da un articolo scientifico) sia di peer review.

La valutazione fondata su indicatori bibliometrici suscita molte perplessità, soprattutto (ma non solo) negli ambienti umanistici. In questo ambito disciplinare, infatti, la valutazione secondo criteri bibliometrici è meno affidabile e meno collaudata.

Ma ci sono critiche anche sul processo di peer review. Infatti verranno valutate di nuovo articoli che hanno già superato un processo internazionale di referaggio. È possibile che, su un certo numero di casi, ci siano divergenze. Ma è giusto ripetere con commissioni prevalentemente italiane un processo che è giunto già a buon fine con commissioni internazionali? Si può considerare più affidabile una peer review “italiana” rispetto a una peer review internazionale?

Ancora: cosa succederà se qualcuno tra i tanti attori – ricercatori, valutatori, università. Enti - non rispetterà i tempi?

In definitiva, non mancano le questioni aperte. Ma la presenza di tutte queste domande legittime – e altre ancora – non devono far dimenticare che la valutazione dell’università e della ricerca italiana è partita. Finalmente! 


Scienza in rete è un giornale senza pubblicità e aperto a tutti per garantire l’indipendenza dell’informazione e il diritto universale alla cittadinanza scientifica. Contribuisci a dar voce alla ricerca sostenendo Scienza in rete. In questo modo, potrai entrare a far parte della nostra comunità e condividere il nostro percorso. Clicca sul pulsante e scegli liberamente quanto donare! Anche una piccola somma è importante. Se vuoi fare una donazione ricorrente, ci consenti di programmare meglio il nostro lavoro e resti comunque libero di interromperla quando credi.


prossimo articolo

Intelligenza artificiale ed educazione: la ricerca di un incontro

Formazione ed educazione devono oggi fare i conti con l'IA, soprattutto con le intelligenze artificiali generative, algoritmi in grado di creare autonomamente testi, immagini e suoni, le cui implicazioni per la didattica sono immense. Ne parliamo con Paolo Bonafede, ricercatore in filosofia dell’educazione presso l’Università di Trento.

Crediti immagine: Kenny Eliason/Unsplash

Se ne parla forse troppo poco, almeno rispetto ad altri ambiti applicativi dell’intelligenza artificiale. Eppure, quello del rapporto fra AI ed educazione è forse il tema più trasversale all’intera società: non solo nell’apprendimento scolastico ma in ogni ambito, la formazione delle persone deve fare i conti con le possibilità aperte dall’IA.