fbpx Il terremoto dell’Aquila e la geofisica in tribunale | Scienza in rete

Il terremoto dell’Aquila e la geofisica in tribunale

Primary tabs

Tempo di lettura: 5 mins

La notizia è rimbalzata su tutti i giornali italiani nei giorni scorsi. La Procura della Repubblica dell’Aquila accusa di omicidio colposo la Commissione Grandi Rischi della Protezione Civile per il “mancato allarme” nei giorni precedenti il forte terremoto dell’Aquila dello scorso anno. Sotto accusa ci sono tra gli altri: Franco Barberi, geofisico di grande esperienza e presidente vicario della Commissione; Enzo Boschi, presidente dell'Istituto Nazionale di Geofisica e Vulcanologia (INGV); Bernardo De Berardinis, vice direttore della Protezione Civile; Mauro Dolce, direttore dell'ufficio rischio sismico della Protezione Civile; Giulio Selvaggi, direttore del Centro Nazionale Terremoti. 

Secondo l’accusa la Commissione avrebbe sottovalutato i precursori del terremoto: in particolare lo sciame sismico che ha preceduto la scossa di magnitudo 6,2 del 6 aprile 2009. La “grave negligenza” avrebbe concorso a causare molte vittime. Sotto accusa è, in particolare, una riunione della Commissione Grandi Rischi che si è tenuta la settimana prima, il 31 marzo 2009, del forte terremoto che ha devastato il capoluogo abruzzese. In quella riunione si disse che non c’erano elementi sufficienti per preannunciare un terremoto devastante.

Non è nostra intenzione entrare nel merito specifico delle accuse. Sarà la magistratura a stabilire se e da chi sono stati commessi reati. Sotto accusa, tuttavia, ci sono le più alte autorità scientifiche in materia di geofisica e le più alte autorità per la prevenzione degli effetti dei terremoti. Cosicché è opportuno interrogarci su tre questioni del tutto generali: qual è la capacità che abbiamo di prevedere un terremoto; quale deve essere la politica di prevenzione sulla base di questa capacità; se la controversia è scientifica, è il tribunale il luogo può adatto a dirimerla?

Sono domande che rilanciamo agli esperti, nella speranza di aprire una discussione.

La prima domanda – allo stato attuale delle conoscenze – è relativamente semplice. Abbiamo una capacità statistica ma non deterministica di prevedere un terremoto. Sappiamo che l’Italia è quasi tutta a rischio. Sappiamo quali sono le aree a rischio più elevato (e L’Aquila è certamente un’area a rischio) per un forte terremoto. Sappiamo quale sarà, più o meno, l’intensità massima: possiamo escludere con sufficiente confidenza la possibilità che in una qualche zona d’Italia si verifichi un terremoto di magnitudo superiore a 8,5 per esempio. Perché sappiamo che terremoti di questa potenza si verificano in altre zone del pianeta. Tuttavia non sappiamo quando avverrà esattamente un forte terremoto, né quale sarà la sua specifica potenza. In breve: sappiamo dove avverrà, ma non quando né con che forza. Non abbiamo, in altri termini, una capacità di previsione deterministica dei terremoti. Né in Italia, né nel resto del mondo.

C’è il problema degli sciami sismici. La presenza di uno sciame di scosse a intensità relativamente bassa preannuncia, a breve, un terremoto più forte? Ne parla nell’articolo di Giuseppe Grandori, grande esperto di ingegneria sismica e professore emerito di Teoria delle Strutture del Politecnico di Milano. Una qualche correlazione esiste. Ma, ancora una volta, è statistica, non deterministica. Varia da zona a zona, da faglia a faglia. Grandori ha verificato, per esempio, che, nel caso di alcuni specifiche aree (l’Irpinia, il Friuli, la Garfagnana), talvolta gli sciami sismici sono seguiti, relativamente a breve, da forti terremoti. Su cento sciami sismici solo 2 sono stati seguiti in passato da forti terremoti. È presumibile che anche in futuro su 100 sciami sismici 98 si risolveranno senza conseguenze e due saranno seguiti a breve da un forte terremoto. Il guaio è che non sappiamo quali.

Ciò ci porta direttamente alla seconda domanda: quale deve essere la politica di prevenzione? Ora abbiamo due scenari possibili. Da un lato la probabilità che in una zona a rischio si verifichi senza precursore alcuno un forte terremoto. Dall’altra la probabilità che in una zona a rischio uno sciame sismico annunci un forte terremoto (2% dei casi). La migliore prevenzione, in entrambi i casi, è costruire edifici antisismici e assicurarsi che le norme siano rispettate. Altro da fare, nel primo scenario, non c’è.

Ma che fare nel secondo scenario, in presenza di uno sciame sismico? Far evacuare la zona, sapendo che nel 98% dei casi si tratterà di un falso allarme, ma sapendo anche che il rischio che il terremoto si verifichi è 200 volte superiore a quello di “tempi normali”?

In nessun paese al mondo uno sciame sismico ha porta finora all’evacuazione automatica di una popolazione. In Italia è successo una sola volta e si è trattato di un “falso allarme”. E tuttavia siamo in presenza di un rischio maggiore rispetto ai “tempi normali”. Se l’evacuazione fosse automatica il costo dei 98 casi di “falsi allarmi” sarebbe enorme, sia in termini economici sia in termini di percezione pubblica del rischio. Ne abbiamo avuto una prova con la pandemia da H1N1: una minaccia che non si è concretizzata ha creato disincanto. E ciò ha avuto conseguenze non solo nella vaccinazione contro il virus H1N1, ma anche nell’aumento dei rifiuti a vaccinarsi per altre malattie. Dopo che hai gridato “Al lupo! Al lupo!” e il lupo non si presenta – che tu abbia avuto ragione o no a lanciare l’allarme – la gente non ti crede più. 

Che fare, allora? Lo strumento migliore, forse, è la “democrazia del rischio”: chiamare gli stakeholders (coloro che hanno una posta in gioco) alla compartecipazione alle scelte. Nel caso di uno sciame sismico, ciò significa comunicare la situazione dalla popolazione e lasciare che sia essa a decidere il proprio comportamento (restare a casa o dormire fuori). Siamo convinti che la comunicazione pubblica della scienza è elemento primario di democrazia nell’era della conoscenza e della percezione “enorme” del rischio. E da questo punto di vista molti, soprattutto in Italia, sono i ritardi da colmare.

Non ci sfuggono, naturalmente, i limiti e i rischi associati alla «democrazia del rischio», soprattutto in un paese come l’Italia particolarmente esposto ai venti della demagogia. Di certo occorre una più attenta riflessione sulla gestione dell’incertezza. E sul ruolo che devono avere nella gestione dei rischi ambientali gli scienziati, i tecnici, i politici, gli stakeholders. Sulle norme che devono regolare la gestione del rischio. Democrazia non significa che tutte le posizioni e tutte le responsabilità sono uguali. Al contrario, significa ricerca del miglior equilibrio tra ruoli e funzioni diverse..

Ci piacerebbe che Scienzainrete divenisse sede in cui si avvia una simile discussione. Ma una cosa ci sembra certa: la scienza migliore e la migliore gestione del rischio non possono essere stabilite nelle aule dei tribunali.

Articoli correlati

Scienza in rete è un giornale senza pubblicità e aperto a tutti per garantire l’indipendenza dell’informazione e il diritto universale alla cittadinanza scientifica. Contribuisci a dar voce alla ricerca sostenendo Scienza in rete. In questo modo, potrai entrare a far parte della nostra comunità e condividere il nostro percorso. Clicca sul pulsante e scegli liberamente quanto donare! Anche una piccola somma è importante. Se vuoi fare una donazione ricorrente, ci consenti di programmare meglio il nostro lavoro e resti comunque libero di interromperla quando credi.


prossimo articolo

Perché le reti neurali hanno vinto i Nobel per la fisica e la chimica?

Quest'anno l'Intelligenza Artificiale ha fatto la parte del leone nei Nobel per la fisica e la chimica. Meglio sarebbe dire machine learning e reti neurali, grazie al cui sviluppo si devono sistemi che vanno dal riconoscimento di immagini alla IA generativa come Chat-GPT. In questo articolo Chiara Sabelli racconta la storia della ricerca che ha portato il fisico e biologo John J. Hopfield e l'informatico e neuroscienzato Geoffrey Hinton a porre le basi dell'attuale machine learning.

Immagine modificata a partire dall'articolo "Biohybrid and Bioinspired Magnetic Microswimmers" https://onlinelibrary.wiley.com/doi/epdf/10.1002/smll.201704374

Il premio Nobel per la fisica 2024 è stato assegnato a John J. Hopfield, fisico e biologo statunitense dell’università di Princeton, e a Geoffrey Hinton, informatico e neuroscienziato britannico dell’Università di Toronto per aver sfruttato strumenti della fisica statistica nello sviluppo dei metodi alla base delle potenti tecnologie di machine learning di oggi.