Se il genio sfugge alla rete della valutazione oggettiva

Read time: 6 mins

“... la Commissione si trova unanime nel riconoscere la posizione scientifica assolutamente eccezionale del Prof. Majorana Ettore, che è uno dei concorrenti. E pertanto la Commissione decide di inviare una lettera e una relazione a S.E. il Ministro per prospettargli l'opportunità di nominare il Majorana professore di Fisica Teorica per alta e meritata fama in una Università del Regno, indipendentemente dal concorso …”

Diciamo la verità, quando, nell’autunno 1937, Ettore Majorana decide di partecipare al concorso per una delle tre cattedre in fisica teoria bandite dal Ministero dell’Istruzione scompagina le carte. I tre posti erano già stati virtualmente assegnati. Tra l’altro uno doveva andare al figlio, Giovannino, di un potente accademico e politico: il filosofo Giovanni Gentile. Majorana non ha molti titoli. Ma le sue capacità, superiori a quelle di qualsiasi altro, sono evidenti a tutti. Il presidente della commissione che deve valutare i candidati, Enrico Fermi, lo considera un genio assoluto, del livello di Galileo o Newton, per intenderci. Così decide di valutarlo sulla base della qualità: di una qualità percepita, non esprimibile in alcun parametro quantitativo. E propone al Ministro di assegnargli la cattedra per “alta e meritata fama”, al costo di far irritare i bibliometri del tempo. Il Ministro acconsente e nel mese di dicembre 1937 emana un decreto che nomina Ettore Majorana professore ordinario di fisica teoria.

L’aneddoto non ha solo un valore storico. È assolutamente attuale. Un genio nelle condizioni di Majorana, sulla base di un esame serio ma quantitativo dei titoli, oggi non potrebbe in alcun modo salire in cattedra. Perché non è più ammesso un giudizio puramente qualitativo sui candidati.

Inutile dire che il passaggio da un giudizio soggettivo a un giudizio oggettivo nella valutazione delle capacità di uno scienziato e nella scelta dei docenti universitari è il risultato, sacrosanto, di una “cultura del merito”, che nel nostro paese ha avuto grandi difficoltà ad affermarsi e che ora trova una prima espressione nell’ANVUR e nei suoi criteri rigorosamente bibliometrici. Se, infatti, nel lontano 1937 il giudizio soggettivo di qualità su Majorana ha riconosciuto un genio, più di recente una miriade di giudizi soggettivi di qualità ha portato in cattedra qualche asino, sia pure di accademico lignaggio. Il problema non riguarda solo l’Italia e non riguarda solo le patologie del sistema di selezione. All’inizio del secolo scorso nel mondo svolgevano attività di ricerca poche centinaia di migliaia di persone. Gli ambiti disciplinari erano formati da piccoli gruppi. In Italia i fisici teorici si contavano sulla punta delle dita di una mano. E nel mondo intero i fisici di frontiera, che si occupavano di quanti o di nuclei atomici, a livello teorico e sperimentale, non erano più di due o tre centinaia. In ogni “collegio invisibile” tutti, più o meno, conoscevano tutti. Oggi i ricercatori nel mondo sono oltre 7 milioni e un solo esperimento al CERN di Ginevra può coinvolge oltre un migliaio di fisici. Anche in un ambito disciplinare nessuno conosce tutti. In questo quadro così mutato la selezione delle carriere può difficilmente avvenire sulla base di criteri soggettivi, ma deve avvenire attraverso meccanismi più rapidi e trasparenti. È per questo che sono stati introdotti indicatori quantitativi. Tutti oggi valutano un bravo fisico o un bravo chimico o un bravo biologo sulla base di parametri quantitativi: come il numero di articoli pubblicati su riviste con peer review (a loro volta valutate sulla base di parametri quantitativi, come l’impact factor), e il numero di citazioni ottenute dagli articoli. Questi parametri hanno qualche difetto. Uno è quello di spingere i ricercatori a lavorare non per rispondere alle domande di fondo, come facevano i Majorana o gli Einstein, ma a pubblicare il più possibile, anche a costo di sacrificare la qualità e persino il senso del loro lavoro: publish or perish. Il rischio connesso alla quantità è di avere una mole di articoli poco incisivi se non francamente inutili.

A questo si è cercato di ovviare introducendo almeno un altro parametro quantitativo per la valutazione: il numero di citazioni. Ovvero quante volte il tuo articolo è stato riconosciuto come indicativo dai tuoi pari. Ma anche questo parametro non sfugge ai difetti di fondo: può, infatti, essere citato molte volte un articolo che non è davvero innovativo. Mentre può essere a lungo ignorato un articolo paradigmatico. L’articolo sulla relatività ristretta di Einstein nel 1905 ebbe bisogno di qualche anno per essere riconosciuto e citato. E la stessa cosa è avvenuta a Watson e Crick quando proposero su Nature un articolo sulla struttura a doppia elica del Dna. Per ovviare a questi limiti sono stati introdotti anche parametri quantitativi che cercano di misurare in qualche modo la qualità. L’esempio più classico è l’h-index. Un indice che misura quante volte uno scienziato ha pubblicato articolo altamente citati. Un h-index pari a 15, significa che un ricercatore ha pubblicato almeno 15 articoli che hanno avuto almeno 15 citazioni. Avere molti articoli molto citati, in genere, significa essere ricercatori che producono risultati di qualità in maniera abbastanza regolare. 
Il sistema non è perfetto. Perché, probabilmente, non esiste alcun algoritmo in grado di misurare in assoluto la qualità. Ma funziona abbastanza bene nell’ambito delle scienze naturali. Ha tuttavia un evidente difetto, come hanno rilevato tre ricercatori americani – Daniel E. Acuna, Stefano Allesina (che è anche “nostro”) e Konrad P. Kording – in un recente articolo su Nature. Il combinato disposto del numero di articoli, del numero di citazioni e dell’h-index, misura il passato, più o meno recente, di un ricercatore. Ma non il suo futuro. Premia chi è già un bravo ricercatore, ma non è in grado di riconoscere ex ante un genio, creando le premesse perché possa esprimersi. 

Quanti fiori della qualità sono stati recisi perché non hanno trovato il terreno per crescere? Il problema è di fondo. Riguarda i fondamenti di ogni sistema di valutazione quantitativo. E la domanda è: come ovviarvi? Acuna, Allesina e Kording propongono un altro algoritmo, su basi probabilistiche, che potremmo definire di “pronto allerta”. È un algoritmo che coglie alcuni segnali precoci e li estrapola nel futuro. Il metodo quantitativo di riconoscimento precoce sembra funzionare. Applicato al passato di alcuni ricercatori è stato in grado di prevedere, con buona significatività statistica, la loro carriera. È possibile applicare ai nostri giovani questo algoritmo? È possibile inserirlo nel nostro sistema di valutazione? Lasciamo che siano i tecnici a rispondere. Sapendo, tuttavia, che per quanto strette siano le maglie della rete che riusciremo a ordire, qualcosa sempre sfuggirà. Perché difficilmente la qualità può essere interamente ridotta a quantità. E allora, che fare? La scienza è un’impresa umana in cui il genio non è tutto, ma è molto. E il problema è serio. Per risolverlo, ammesso che ci sia una soluzione, probabilmente occorrerà lasciare qualche piccola via di fuga alla cernita oggettiva con una rete algoritmica. Occorrerà trovare qualche luogo e momento in cui la qualità venga giudicata con criteri soggettivi. A patto che chi esprime il giudizio sia a sua volta autorevole e se ne assuma in pieno la responsabilità.

Un esempio? Un giovane italiano, Alessio Figalli, è diventato professore ordinario di matematica a soli 27 anni presso l’università di Austin in Texas. Prima era diventato professore a Parigi e ancor prima ricercatore al CNRS francese. Probabilmente a quell’età non aveva titoli sufficienti per partecipare a un qualsiasi concorso in Italia. Il suo h-index non sarà stato, probabilmente, altissimo. Ogni volta ha superato la prova perché ha dimostrato di avere genio al di là dei titoli ufficiali. E ogni volta in Francia come in America, qualcuno si è assunto la responsabilità di riconoscerla, quella bravura. Andando oltre i parametri puramente bibliometrici. Proprio come fecero Fermi e gli altri componenti della commissione che assegnò la cattedra  di fisica teorica a Ettore Majorana per «alta e meritata fama».

altri articoli

Le notizie di scienza della settimana #101

È entrata in vigore il 20 maggio, in occasione del World Metrology Day, la nuova definizione del chilogrammo, basata non più sul campione di platino-iridio depositato al Bureau international des poids et mesures a Parigi bensì sulla costante di Planck ℏ. La nuova definizione garantirà la stabilità di questa unità di misura, che finora doveva essere aggiornata ogni volta che il campione di platino-iridio si deteriorava e il suo peso cambiava di conseguenza. Ora il valore del chilogrammo è legato a una costante della natura misurata con estrema precisione e che non cambierà di valore. Ma come è legata la misura del chilogrammo alla costante di Planck? Per capirlo bisogna scendere nei sotterranei del National Institutes of Standards and Technology a Gaithersburg nel Maryland per vedere la bilancia di Watt, o Kibble balance. Nell'immagine: la NIST-4 Kibble balance. Credit: J.L. Lee / NIST.

Curare l'obesità con la chirurgia

La chirurgia bariatrica è lo strumento più efficiente per curare i casi gravi di obesità, eppure solo l'1% degli statunitensi che ne trarrebbero beneficio si sottopone a questo tipo di interventi. I sondaggi mostrano, infatti, che la maggioranza considera la chirurgia bariatrica pericolosa o poco efficace. Tuttavia, sono ormai numerosi gli studi scientifici che mostrano che i benefici superano abbondantemente i rischi. Non tutti gli interventi sono uguali, però.