Valutare le scienze sociali. Sì, ma come?

Tempo di lettura: 7 mins

È buon segno che in Italia tanto si ragioni e si discuta di valutazione della ricerca, e soprattutto dell’università; ed è naturale che le pubblicazioni siano sempre chiamate al ruolo di “base empirica”. E che nessuno, sui lidi di nessuna disciplina, gridi alla “lesa maestà”! È necessario valutare una parte fondamentale della classe dirigente del Paese, quella che ha la responsabilità di formarla per il futuro. Per giunta sono convinto che la scienza sia unitaria, un po’ per convinzione filosofica e un po’ per biografia scientifica, e dunque non riconosco differenze radicali fra scienze umane/sociali e scienze naturali.

D’altronde, facendo risalire la nascita della scienza (moderna) alla fondazione delle Accademie europee del Seicento, e alle riviste che ne costituirono gli organi ufficiali, è inevitabile considerare consustanziale alla scienza l’attività comunicativa (interna alla comunità scientifica). Ma vediamo meglio la cosa. Le missioni dell’università sono tre.

La Prima Missione di un professore universitario è stata storicamente quella di formare alte professionalità garantendo il mantenimento del sapere accumulato. La Seconda Missione è stata quella della ricerca, ovvero dell’aumento della conoscenza attraverso la produzione di documenti scritti destinati alle pubblicazioni. La Terza Missione, infine, è quella che sta crescendo esponenzialmente nella società della conoscenza ed è, sostanzialmente, quella della comunicazione della scienza al di fuori dei canali delle prime due missioni (divulgazione, consulenza, brevettazione, edutainment, partecipazione nella sfera pubblica, formazione non formale ecc.)

Ma vediamo come si valutano.

La capacità di un professore universitario (gli scienziati dei centri di ricerca sarebbero esentati) nella Prima Missione, alla quale comunque (unico caso fra i docenti di ogni ordine e grado) non viene formato, è rimessa al giudizio degli studenti dei suoi corsi, in genere nell’ultima settimana di corso e prima degli esami. Personalmente, ho preso l’abitudine di avvisare i miei studenti che, nonostante ciò, considero la “base empirica” della mia didattica il giudizio che essi potranno farsi quando lavoreranno da tempo, diciamo almeno dopo 5-10 anni il mio corso. Il miglior giudizio ricevuto da un mio studente, ovviamente non richiesto, fu quello di essere stato non solo un professore, ma anche un “insegnante”, perché nel tempo (bontà sua) avevo lasciato il segno.

La capacità dello scienziato (accademico e non) nella Terza Missione non viene valutata minimamente, e dunque viene lasciata mano libera alle varie comunità di comportarsi come meglio credono, spesso secondo tradizione od opportunismo. Dunque, in certe discipline, per esempio, la comunicazione, la riflessione filosofico-metodologica o politico-sociale e anche la retrospettiva storica sono viste negativamente, come una sorta di attività squalificanti (ricordo quando, allora studente di fisica, gli storici della fisica mi venivano presentati ingenerosamente da alcuni “fisici veri” come dei fisici alla fine di una carriera spesso mai iniziata). Mentre in altre discipline, al contrario, non si fa distinzione tra pubblicare su quotidiani o riviste di dibattito (tipicamente politico) e su riviste scientifiche, tra incursioni divulgative in riviste di tutt’altra specializzazione, pubblicazioni introduttive a fini didattici (scolastici), saggi originali, curatele celebrative con i “soliti noti” o produzioni innovative.

E la Seconda Missione? Eccoci al centro del problema, come attestato anche dal dibattito recentemente avviato, per esempio, nell’ambito della sociologia italiana (Enciclopedia Italiana Treccani, Associazione Italiana di Sociologia). Cominciamo col dire che misurare la qualità della produzione scientifica è difficile, soprattutto nelle scienze sociali. Per la natura stessa dell’oggetto (non si riesce mai a prendere una distanza paragonabile con le scienze fisiche, si è spesso nelle vicinanze del potere politico, economico, culturale ecc.), a voler essere troppo “oggettivi” si rischia l’ideologia e se, invece, si parte per la tangente interpretativa si rischia il “soggettivismo espressionistico”. E “stare nel mezzo” vuol dire mettersi in discussione continuamente (difficoltà e bellezza delle scienze sociali!). Un mio cruccio, comunque, è quello di non avere la più pallida idea di come tradurre il giudizio che ricavo leggendo un articolo o un libro di un collega sociologo, in me spesso ben nitido e ampiamente argomentabile, in un criterio (operativizzabile). Niente di più chiaro di un buon numero, ne sono convinto, ma il problema è quale numero. Qualità e quantità son due cose diverse, perché a volte i più produttivi sono anche i migliori, ma non sempre; a volte sono sfalsate nel tempo perché la quantità di oggi può non essere la qualità di domani; e persino i classici, che sono pochi ma ci sono, ai contemporanei non è facile riconoscerli. Figurarsi i buoni sociologi.

Di effetti perversi delle misurazioni bibliometriche, come si sa, ve ne sono parecchi. Qualche esempio? I libri non rientrano nei conteggi delle citazioni perché è improponibile economicamente considerarne le bibliografie (attenzione a cercare l’efficienza a scapito dell’efficacia). E c’è poco da fare: non rimane che leggerseli. I database delle riviste internazionali, per altro, sono parziali, anche perché (comprensibilmente) vi è una diversa attenzione alla dimensione locale del loro oggetto di studio: uno studio sulla Brianza da parte di un autore italiano è raro che abbia interesse per una rivista in lingua inglese, al contrario di uno studio condotto su una remota regione degli Stati Uniti o dell’Australia.

L’impact factor, poi, è definito per una rivista, e ha senso se considerato, non solo come media delle citazioni su 3-5 anni (per le scienze umane/sociali direi qualcosa in più: 5-10 anni), ma per la totalità degli articoli di una rivista, e mai si può assegnarlo a un singolo articolo, come invece capita che si faccia per ragioni economiche: troppo variabile è il numero di citazioni a un singolo articolo in una qualunque rivista internazionale (parola di Eugene Garfield, fondatore del Science Citation Index: di nuovo: attenzione all’efficienza che perde per strada l’efficacia!).

Inoltre, si sa bene quanto siano frequenti fenomeni di citazione “diplomatica”, parrocchialismo (cronyism) in comunità ristrette come quelle (sotto)disciplinari anche a livello internazionale. Che dire poi della significatività crescente di tali misurazioni al crescere della base sulla quale si media (dipartimenti, discipline, riviste, nazioni ecc.): con quante cautele applicarle al singolo? La bibliometria non è la panacea, ma solo un (indispensabile) corredo alla peer review.

Ma, ahimè, vi sono effetti perversi anche in questa: sostanzialmente tutti quelli più gravi della bibliometria, che per gli addetti ai lavori è definita, infatti, peer review indiretta. Limitatissimo è il numero degli attori in una review (in genere un editor e un paio di revisori: chi e come li sceglie?); variabili sono le politiche di gestione del dissenso (a volte del tutto opache); raramente a “doppio cieco” la valutazione (e paradossalmente non è detto che sia sempre un male); e via di questo passo. E attenti che non sempre due teste (che leggono, ma non sempre) sono meglio di una (che scrive, a volte con serietà e profondo senso di responsabilità).

Diversità vi è, poi, fra la produzione tipica delle varie (sotto)discipline (riviste locali/internazionali, riviste/libri, critica storica/attualità, ecc.) e anche fra tradizioni diverse all’interno della medesima e, infine, differenti tradizioni culturali nei vari paesi (sappiamo tutti delle diversità di stile linguistico, culturale, politico, ecc., e questa è la ricchezza della tradizione Europea).

Complessivamente, e questo è di grande attualità in Europa, bisogna contemperare l’efficienza con l’efficacia, la concentrazione di finanziamenti pubblici (e l’orientamento dei giovani dottorandi) sui pochi binari tipici del mainstream con la cautela nel non costruirne di surrettizi, compromettendo la divergenza dello scetticismo metodico e dell’originalità (principi etici già di Robert K. Merton). Alle volte mi pare che, almeno in Europa, l’originalità, il coraggio intellettuale, la capacità di immaginazione sociologica per l’innovazione (Innovation Union?) si stiano rarefacendo ben più delle risorse pubbliche. Dietro un nome altisonante (spesso forzatamente anglosassone) può celarsi il provincialismo di chi insegue mode culturali (ci sono anche mode scientifiche) o di chi difende piccole rendite di posizione (rentiers accademici, per così dire), né più né meno che nel ritrarsi dal misurarsi con le questioni portanti del nostro tempo.

E allora, che fare? Dibattersi nell’alternativa fra tenersi quel che c’è, perché così va il mondo, lasciando che ognuno ne faccia “uso cinico” (opportunistico) oppure rifugiarsi nella “quiete degli studi” (ma c’è mai stata davvero)? Ma no, proviamo un uso clinico di quel che sappiamo del mondo scientifico, magari dopo averlo ancor meglio studiato.

Ben venga in tutta la scienza la valutazione, diretta e indiretta, dunque, come occasione di responsabilizzazione del ricercatore (ma quelli italiani sembra che ne abbiano meno bisogno di altri) e del valutatore (per concedere finanziamenti, progressioni di carriera, ecc. e ognuno, in cuor suo, sa di quanto bisogno ne abbiamo). Entrambi, insomma, vanno educati alla valutazione (e quando coincidono nella stessa persona, poco cambia): e questa è una sfida culturale (direi anche politica).

Ma soprattutto buon lavoro all’Anvur, cui spetta una vera sfida scientifica, nella speranza che spinga, come sono convinto farà, a sviluppare i science studies anche nel nostro Paese insieme all’attività di valutazione. Questa è la proposta che mi sento di fare da sociologo della scienza, ma mi sembra anche dettata dal buon senso.

altri articoli

ERC starting grant 2019: bene italiani, male Italia

Un ricercatore in erba osserva i ragni sulle piante con una lente d'ingrandimento. Crediti: Stoyko Sabotanov, Wikimedia. Licenza: CC BY 4.0

Le istituzioni italiane nel 2019 (bando 2018) si sono aggiudicate 18 starting grant ERC, i finanziamenti elargiti dall’Europa ai giovani ricercatori che hanno completato il phd da non più di 7 anni e che non hanno ancora ricoperto il ruolo di principal investigator. Finanziamento per ogni singolo progetto: 1,5 milioni di euro per un periodo di 5 anni. Nel 2019 ERC ha finanziato 408 starting grant.