L’ANVUR: si parte. Finalmente!

Read time: 3 mins

Signori, si parte. Cinque anni dopo la sua costituzione, l’ANVUR – l’Agenzia Nazionale di Valutazione del sistema Universitario e della Ricerca – ha pubblicato lo scorso 7 novembre il bando per la «Valutazione della Qualità della Ricerca 2004-2010 (VQR 2004-2010). Un passo importante, auspicato anche dal Gruppo 2003 nei suoi sette suggerimenti al neopresidente del Consiglio Mario Monti (vedi editoriale).

Lo screening coinvolgerà 65.000 tra docenti universitari (circa 57.000) ricercatori degli Enti pubblici di ricerca (circa 8.000) e valuterà 216.000 prodotti (articoli scientifici, libri, review, brevetti e altro). Sarà un lavoro enorme, che impegnerà oltre 450 esperti in un processo che si concluderà tra un anno e mezzo abbondante, il 30 giugno 2013, con la pubblicazione di un Rapporto Finale. Il costo dell’operazione è di 5 milioni di euro.

Lo scopo non è quello di dare un voto ai singoli operatori dell’intero settore pubblico dell’alata educazione e della ricerca scientifica, ma di valutare le strutture: università, dipartimenti universitari, istituti di ricerca). La valutazione dovrebbe poi essere la base per una politica di finanziamento dell’università e della ricerca non fondata più unicamente sul metodo a pioggia, ma anche sul merito. Ai più bravi dovrebbero andare più soldi.

Il meccanismo di valutazione è imponente. A tratti farraginoso. In alcuni punti, controverso. In altri, forse, sbagliato in linea di principio. Ciò non toglie che l’annuncio di pubblicazione del bando debba essere accolto con un chiaro «Finalmente!».

Scienzainrete e il Gruppo 2003 hanno da sempre considerato essenziale stabilire chiari criteri di merito nel sistema universitario e della ricerca italiana. E dunque i motivi del «Finalmente!» sono noti ai nostri lettori.

Conviene allora prendere in considerazione il “discorso sul metodo”. Come avverrà la valutazione? Il bando è chiaro. Sono state individuate 14 aree disciplinari, ciascuna delle quali potrà contare su un numero di Esperti della Valutazione compreso tra un minimo di 9 (area “Scienze della Terra”) e un massimo di 79 (area “Scienze mediche”).

Questa struttura – GEV, Gruppo di Esperti della Valutazione (a proposito, come e da chi verranno scelti?) – prevede la partecipazione anche di alcuni referees non italiani e prenderà in esame un certo numero di “prodotti” (articoli su riviste scientifiche, libri, capitoli di libri, atti di congressi, edizioni critiche, traduzioni, commenti scientifici, brevetti, composizioni varie) realizzati dai “soggetti” da valutare: ricercatori (a tempo determinato e indeterminato), assistenti, professori associati e professori ordinari delle università; ricercatori e tecnologi degli Enti pubblici di ricerca.

Ciascuno dei “soggetti” – ahi, il linguaggio burocratico – dovrà presentare un numero definito di “prodotti”: i docenti universitari ne dovranno presentare 3, i ricercatori “senior” degli Enti pubblici 6. La differenza è dovuta al fatto che nelle università la ricerca è una parte del lavoro, l’altra parte è la didattica. E, dunque, la valutazione scientifica di un docente universitario è solo la metà della sua valutazione complessiva.

Alla fine la somma dei risultati ottenuti dai singoli ricercatori consentirà una valutazione credibile e comunque oggettiva di università, dipartimenti e istituti di ricerca.

Ciascun “prodotto” sarà sottoposto a una serie di valutazioni: sia di tipo bibliometrico (per esempio numero di citazioni ottenute da un articolo scientifico) sia di peer review.

La valutazione fondata su indicatori bibliometrici suscita molte perplessità, soprattutto (ma non solo) negli ambienti umanistici. In questo ambito disciplinare, infatti, la valutazione secondo criteri bibliometrici è meno affidabile e meno collaudata.

Ma ci sono critiche anche sul processo di peer review. Infatti verranno valutate di nuovo articoli che hanno già superato un processo internazionale di referaggio. È possibile che, su un certo numero di casi, ci siano divergenze. Ma è giusto ripetere con commissioni prevalentemente italiane un processo che è giunto già a buon fine con commissioni internazionali? Si può considerare più affidabile una peer review “italiana” rispetto a una peer review internazionale?

Ancora: cosa succederà se qualcuno tra i tanti attori – ricercatori, valutatori, università. Enti - non rispetterà i tempi?

In definitiva, non mancano le questioni aperte. Ma la presenza di tutte queste domande legittime – e altre ancora – non devono far dimenticare che la valutazione dell’università e della ricerca italiana è partita. Finalmente! 

altri articoli

Quando l'intelligenza artificiale prende tre all'esame

Crediti: Mike MacKenzie/Flickr. Licenza: CC BY 2.0

Il rapporto tra matematica e intelligenza artificiale non è semplice come sembra: una rete neurale sviluppata da DeepMind ha fallito un esame di matematica di seconda superiore. Ma com'è possibile che l'attività più ostica per gli esseri umani risulti più semplice per le macchine, e viceversa? Probabilmente, le difficoltà dell'intelligenza artificiale non erano di natura matematica, bensì nella capacità di leggere il compito e interpetarne il contenuto. L'esperimento voleva iniziare un'indagine su come le macchine affrontino gli stimoli pensati per gli esseri umani, e non semplificati o codificati in un linguaggio artificiale; il test di matematica è, in quest'ottica, uno stimolo relativamente semplice che può dare molti indizi sul modo di ragionare delle macchine