fbpx LHC, riconosciamolo: l'errore e lo stop erano evitabili | Scienza in rete

LHC, riconosciamolo: l'errore e lo stop erano evitabili

Primary tabs

Read time: 3 mins

Un progetto gigantesco, uno sforzo di migliaia di persone, un’avventura che era appena iniziata, il 10 settembre 2008, con clamore mediatico (200 giornalisti, Google che ci dedica la sua pagina): e poi il grande stop solo  nove giorni dopo. Con tutti giornalisti che – avendo appreso la strada nel giorno di gloria della partenza – sono ritornati fulminei a chiedere come mai la macchina si fosse rotta e di chi fosse la colpa. La colpa, sì, perché anche se non detto apertamente nei primi giorni, il punto era capire come mai, ma anche per quale negligenza o responsabilità l’incidente si era prodotto.

Il guasto è stato causato da un difetto della connessione elettrica tra i magneti superconduttori. Alle correnti di 12’000 A (ampere)  occorre che la resistenza nelle connessioni sia più bassa di 1 nanoOhm (ovvero un milionesimo di Ohm). Valori molto piccoli ma che si sanno fare, normalmente si raggiunge 0.2-0.4 nanoOhm. La connessione difettosa presentava una resistenza di oltre 200 nanoOhm, e causò l’innesco  di una deriva termica a circa 9'000 A che ha portato alla fusione dell’interconnessione ed alla fine al danneggiamento di 39 magneti superconduttori  e la fuoriuscita nel tunnel di circa 6 tonnellate di elio liquido. A parte la sorpresa di non aver intercettato un tale difetto, il punto è che gli studi e misure che abbiamo fatto in seguito all’incidente ci hanno rivelato delle debolezze intrinseche delle connessioni LHC. Tali debolezze possono essere riassunte in una mancanza di stabilità in molte (20% o più) delle connessioni LHC.  Il difetto è così grave da richiedere un funzionamento di LHC a regime ridotto per i prossimi due anni e poi un anno di stop per riparare tutto il sistema prima di raggiungere finalmente le prestazioni nominali nel 2013.

Una questione che ci viene spesso rivolta è se l’incidente era evitabile. Certo, come in tutti gli incidenti, la causa ultima è un errore umano: una concezione insufficiente, un’esecuzione difettosa, una procedura con smagliature, dei controlli inadeguati. Tutto questo si è verificato. Io penso però che la vera questione sia più profonda e, in un certo senso, al cuore della nostra umanità. Abbiamo affrontato il problema dell’installazione, interconnessione e collaudo,  con troppa spavalderia o meglio con una mancanza di umiltà di base: non siamo partiti dal principio che l’errore è connaturato con il nostro agire (chi non fa non sbaglia) e quindi non ci siamo chiesti: ci sarà almeno un difetto grave tra le 10'000 e più interconnessioni, e cosa succede se non lo intercettiamo? E come intercettarlo almeno prima che faccia un danno ingente? Ora sappiamo che possiamo vedere difetti anche molto più piccoli di quello dell’incidente, possiamo tranquillamente riconoscere che la parte d’integrazione di sistema non era stata sufficiente affrontata. E lo scopo ultimo del riconoscere il nostro limite non è per rimanere bloccati, è per ripartire con un’energia ancora maggiore. Per me personalmente, ripartire con questa coscienza ha voluto dire trovare le risorse umane e psicologiche per correre l’avventura della riparazione di LHC: solo imparando dalla propria esperienza, e tanto più dai propri sbagli, si può – e si deve – migliorare. LHC è il più complesso strumento scientifico mai costruito. Il suo funzionamento dipende certo dalla competenza dei vari fisici e ingegneri, ma dipende anche dalla capacità dei singoli di fare squadra, di sapersi integrare e di trovare motivazioni adeguate.

Approfondimenti. Lo scorso 22 febbraio Lucio Rossi ha pubblicato un dettagliato articolo su "Superconductivity: its role, its success and its setbacks in the Large Hadron Collider of CERN" sulla rivista Superconductor Science and Technology.  

Articoli correlati

Scienza in rete è un giornale senza pubblicità e aperto a tutti per garantire l’indipendenza dell’informazione e il diritto universale alla cittadinanza scientifica. Contribuisci a dar voce alla ricerca sostenendo Scienza in rete. In questo modo, potrai entrare a far parte della nostra comunità e condividere il nostro percorso. Clicca sul pulsante e scegli liberamente quanto donare! Anche una piccola somma è importante. Se vuoi fare una donazione ricorrente, ci consenti di programmare meglio il nostro lavoro e resti comunque libero di interromperla quando credi.


prossimo articolo

La ricerca e l'innovazione dell'IA in mano a oligopoli privati: l’allarme e le soluzioni

L`intelligenza artificiale va regolamentata prima che si affermino forme di oligopolio, o persino di monopolio, capaci controllare l`accesso alle informazioni e la produzione di nuove conoscenze: per questo serve un grande centro di ricerca pubblico che oggi può essere realizzato solo in Europa. Lo afferma il premio Nobel per la fisica Giorgio Parisi in occasione del convegno ⁠ "Ricerca e democrazia nell`epoca delle Big Tech" ⁠ organizzato dal Gruppo 2003 per la ricerca scientifica il 14 maggio presso la sede del CNR a Roma, in collaborazione con Scienza in rete. Il dossier presentato dall'associazione sostiene con dati i rischi posti da un predominio economico schiacciante esercitato da poche aziende che valgono quanto il PIL degli USA, e che stanno condizionando profondamente anche l'ecosistema della ricerca scientifica, sempre meno aperto e controllato dalla comunità di riferimento. Nell'immagine Giorgio Parisi, foto di Luca Carra.

Sei aziende (NVIDIA, Alphabet, Apple, Microsoft, Amazon e Meta) valgono oggi circa 22.000 miliardi di dollari, tre quarti del PIL degli Stati Uniti. Nel solo 2026 spenderanno in infrastrutture digitali tra 660 e 725 miliardi di dollari, circa tre volte e mezzo il bilancio federale americano per tutta la ricerca civile.