fbpx Da un’aula di Tribunale agli ultimi terremoti padani | Scienza in rete

Da un’aula di Tribunale agli ultimi terremoti padani

Primary tabs

Tempo di lettura: 12 mins

12 gennaio 2011

L’Aquila. Mille giorni dopo il terremoto. Aula di tribunale. Non è un processo alla scienza, ha scritto qualcuno. Invece si, lo è, almeno oggi. E io sono qui da osservatore, ma avrei potuto essere imputato o testimone dell’accusa, accidenti. Perché oggi qui è in scena un paradosso: sismologi contro sismologi, sismologi alla sbarra e sismologi chiamati a testimoniare contro i colleghi. E avvocati che cercano di metterli l’uno contro l’altro, tentando di dimostrare che chi oggi è qui come testimone si sarebbe comportato diversamente da come si comportò, quel 31 marzo del 2009, chi oggi è qui nei panni di imputato.
L’accusa è di aver sottovalutato certi chiari segni dell’arrivo del terremoto. Si incalzano i sismologi portati dall’accusa: avreste voi interpretato correttamente, e correttamente riferito a chi doveva riferirne alla popolazione, i segnali premonitori della scossa? La risposta, per noi sismologi, è chiara e netta. No. Nessun sismologo sa prevedere un preciso terremoto: nessuno può dire con certezza il momento e il luogo della prossima scossa, così come nessun cardiologo sa prevedere un preciso infarto. Entrambi, noi sismologi e il cardiologo, diciamo che ci si deve pensare prima, negli anni, e indichiamo le aree e le persone a rischio. L’unica via è la prevenzione: riduciamo i grassi, il fumo e gli abusi edilizi, ma non chiedeteci se vi verrà un colpo mercoledì o giovedì, non possiamo dirvelo. Oggi potete anche saltare il fritto o dormire in macchina, ma domani?
Tutto si gioca sul filo sottile della distinzione tra mancata previsione e rassicurazione. “Non possiamo dire che ci sarà un forte terremoto” viene letto: “non ci sarà un forte terremoto”. Si parla di previsione a breve termine (quella del giorno prima, quella impossibile) usando impropriamente mappe di probabilità riferite ai prossimi dieci anni e a un’area di migliaia di chilometri quadrati. Si vorrebbero usare come prova del crimine. Si cerca di trovare il marcio: mappe occultate, rapporti di progetto secretati, dai miei colleghi, dal mio istituto. E invece tutto quello è nelle mani delle autorità competenti da tempo. Come se non si sapesse, come se non fosse noto da anni, alle autorità e a chi è deputato a informare la popolazione, che quella era ed è una delle zone a più alta pericolosità del paese.
La nuova mappa di pericolosità sismica è uscita sulla Gazzetta Ufficiale nel 2006, raro caso di trasferimento di un risultato scientifico condiviso alla società, ma non c’è bisogno della mappa più aggiornata: l’Abruzzo è classificato sismico da quasi un secolo, dal terremoto della Marsica del 1915. Lo sapevano bene alla Protezione Civile. Lo sapeva bene il Sindaco Cialente, lo sapeva il Dirigente della Protezione Civile abruzzese Leone, lo hanno detto al processo, suscitando le proteste dell’accusa che avrebbe voluto sentire altro.  

Tragedia e legge

Anche dopo il terremoto del Molise, quando molti bambini morirono per il crollo di una scuola che non doveva crollare, subito si gridò allo scandalo: gli scienziati non avevano classificato la zona come sismica. Ecco i colpevoli! Che ignoranza, che vi paghiamo a fare? Era il 2002, e ci volle poco per mostrare che esisteva da anni una proposta di nuova classificazione sismica, redatta da molti ricercatori universitari e degli enti di ricerca, che classificava quasi tutto il Molise tra le aree pericolose, e che dal 1998 giaceva da qualche parte al ministero dei Lavori pubblici, in attesa di chissà che cosa. Forse del prossimo terremoto che l’avrebbe fatta approvare. Sentenza ribaltata: scienziati scagionati, politica sotto accusa.
La nuova classificazione sismica del territorio, basata su quella proposta, e le norme tecniche di costruzione antisismica, finalmente in linea con le norme europee, uscirono nel 2003, l’anno dopo il terremoto di San Giuliano. Furono subito approvate, si penserà, per evitare che le migliaia di case che si costruiscono ogni anno nelle zone sismiche del paese fossero ancora una volta costruite male. No. Vennero applicate solo in misura parziale. La nuova carta di pericolosità uscì nel 2004 con un grande impegno e una forte assunzione di responsabilità della comunità scientifica nazionale, e divenne riferimento dello Stato nel 2006. L’applicazione delle norme del 2003 venne sostanzialmente tenuta in stand-by e nel 2006 venne istituita un’altra commissione per farne di migliori, che uscirono nel 2008. Applicate subito, almeno ora? No, altro rinvio. La definitiva applicazione ha dovuto attendere un’altra tragedia, quella del 6 aprile 2009. 



Figura 1. I cambi nella normativa sismica hanno sempre “inseguito” i forti terremoti. A parte l’ultima vicenda del terremoto di L’Aquila nel 2009, l’ultimo importante impulso è stato dato dal terremoto di San Giuliano (Molise) del 2002, che ha determinato l’attuale classificazione sismica del territorio e le nuove norme tecniche per le costruzioni (si veda:  http://zonesismiche.mi.ingv.it; figura di M. Stucchi, C. Meletti e V. Montaldo, 2006)

Comunque andrà a finire all`Aquila, nel nostro paese ci saranno altri terremoti, altri morti, altre polemiche. Potrebbe succedere nella zona dove da mesi stiamo rilevando sequenze sismiche con tanti piccoli terremoti, simili a quella aquilana prima del 6 aprile, ma potrebbe accadere quasi ovunque. Ci saranno santoni che diranno “lo avevo previsto” e cercheranno di specularci sopra. È sempre accaduto, e oggi è ancora più facile che succeda, con Internet, i social media, i giornali on-line, la TV-verità.

Scosse e incomprensioni

Qualche settimana fa, descrivendo la sequenza sismica in corso da oltre tre mesi nell’area del Pollino, l’Unità titolava “La Calabria trema: 34 scosse al giorno: Qui come a L’Aquila”. Poi, 24 ore dopo,  sullo stesso giornale “Nessun allarme: Lo sciame sismico calabrese è normale”.  Questi due titoli, sbagliati per ragioni opposte, rispecchiano bene l’incertezza che accompagna ogni sequenza sismica che si manifesta sul nostro territorio. Cerchiamo di fare chiarezza, per quanto si può.
La sequenza del Pollino, di cui questi titoli parlano, è simile a quella rilevata a L’Aquila dalla fine del 2008 a marzo 2009. Ma altre sequenze sismiche avvenute in Italia sono state simili a quella dell’Aquila, e tutte sono finite nel niente. Anche al Pollino per ora sembra che stia andando così: poche scosse ormai da oltre un mese. Ma non possiamo dire che sia già finito tutto. Non lo sappiamo.

Figura 2. Numero giornaliero di terremoti dello “sciame” sismico del Pollino, al confine tra Basilicata e Calabria, dal 1 ottobre 2011 al 29 gennaio 2012. Nei quattro mesi sono avvenuti oltre 900 eventi sismici, la maggior parte dei quali ha avuto magnitudo inferiore a 2 (verde brillante), mentre solo quattro hanno superato magnitudo 3 (quadratini gialli). L’attività più recente è ancora più frequente del periodo precedente a ottobre 2011, per cui lo sciame è ritenuto ancora in atto (figura di Milena Moretti).

Si sa che le sequenze sismiche avvengono spesso nelle regioni sismicamente attive, la maggior parte delle volte senza concludersi con una scossa significativa. In Italia ne abbiamo contate oltre 120 dal 2008 al 2010, e solo in un caso, quello di l’Aquila, la sequenza è stata seguita da un forte terremoto. Ma, proprio in Abruzzo, un altro studio recente ha mostrato che soltanto nel XX secolo ci sono state 23 sequenze, otto delle quali in prossimità di L’Aquila. Nei secoli precedenti è accaduto lo stesso, come ci dice il più famoso trattato sui terremoti storici italiani (I Terremoti d’Italia, Mario Baratta, 1901) e come ricostruito in un recente studio dall’autore di questo articolo e colleghi (Amato and Ciaccio, Earthquake sequences in the last millennium in L’Aquila and surrounding regions, Terra Nova, 2012).
Viceversa, terremoti grandi possono arrivare del tutto inattesi, senza essere preceduti da scosse di nessun tipo. Successe così per il terremoto della Marsica del 1915, come cita un sismologo dell’epoca, Alfonso Cavasino (1935) nel suo trattato su “I terremoti dʹItalia nel trentacinquennio 1899-1933”.

È vero tuttavia che alcuni forti terremoti sono stati effettivamente preceduti da sequenze sismiche. Per questo c’è chi ipotizza che i piccoli terremoti possano “accelerare” i grandi e che si potrebbe usare quello che viene definito “forecasting” probabilistico (vedi Box) per mettere in atto azioni di riduzione del rischio subito prima di un possibile evento sismico. Questa ipotesi viene spesso ripresa anche dalla stampa. Ma va ricordato che la definizione di queste sequenze come  “foreshocks” (spesso tradotto impropriamente con “scosse premonitrici”) può essere fatta solo a posteriori.
In un recente articolo di Nicola Nosengo sul terremoto a L’Aquila (“Scienziati a processo”, L’Espresso del 29/12/2011) viene espressa questa tesi, attraverso le parole di Tom Jordan, un noto sismologo americano, direttore del Southern California Earthquake Center (SCEC).  Secondo Jordan le probabilità di accadimento di un terremoto in Abruzzo il 30 marzo, dopo la scossa di magnitudo 4, erano aumentate notevolmente, arrivando a una su mille, dice Jordan. Anzitutto ciò equivale a dire che c’era il 99,9% delle probabilità che non accadesse nulla. Poi Jordan non dice che nei giorni successivi, prima del 6 aprile, questo valore era sceso nuovamente a valori molto inferiori, dell’ordine di 1 su 10.000, a causa del diradarsi della sismicità.
Va anche rilevato che in alcuni casi queste sequenze di “foreshocks” sono avvenute minuti o ore prima dell’evento forte, in altri casi settimane o addirittura mesi, e  sempre in maniera del tutto irregolare. E la faccenda cambia di molto. È evidente che nel primo caso non si ha il tempo di fare nulla, mentre negli altri casi si rischierebbe di mettere in atto azioni temporanee che verrebbero vanificate da un presunto ritorno alla normalità che non ha mai senso in un’area altamente sismica (leggi: la crisi è passata e non ce ne preoccupiamo più). Nel gennaio del 1693, in Sicilia sud-orientale, dopo che un forte terremoto causò alcune centinaia di vittime tra Noto e Augusta, la popolazione rimase fuori dagli edifici per 48 ore. Trascorso questo intervallo, ritenuto sufficiente per decretare scampato il pericolo, rientrò nelle case. Fu così che la sera dell’11 gennaio oltre 54.000 abitanti di Catania, Siracusa, Ragusa, Augusta, Noto, Modica e molti altri paesi persero la vita sotto le macerie. Fu uno dei più grandi terremoti della nostra storia sismica che impose  la ricostruzione quasi coeva di molte città e paesi della Sicilia orientale, tanto da essere considerato l’origine del Barocco siciliano. La scossa sarebbe potuta avvenire poche ore prime, e avrebbe risparmiato migliaia di vite umane, o molti giorni dopo. Se fosse avvenuta ad esempio un anno dopo possiamo pensare che avrebbe dato ai cittadini il tempo di prepararsi, rinforzando gli edifici. O forse no, nel 1693 non si sarebbe fatto, perché il vizio di scordarci presto dello scampato pericolo è antico, ma la cosa più grave è che forse non si farebbe neanche ora.

E allora che cosa facciamo?

Il punto di snodo del processo ai sismologi in corso a L’Aquila è proprio questo: il “forecasting” dei terremoti potrebbe portare a mettere in pratica azioni di riduzione del rischio a breve termine. E, se si potesse dimostrare che le probabilità a L’Aquila erano aumentate davvero, si arriverebbe a dire che lì si poteva e si doveva fare qualcosa. Ma attenzione. Non solo non si può dimostrare proprio niente. Ma questa non deve essere la soluzione al problema del rischio sismico in Italia. Non facciamoci ingannare.
A un uso scriteriato del territorio come quello attuato negli ultimi decenni si vorrebbe porre rimedio pretendendo di allertare la gente poche ore o minuti prima di un terremoto, invitandola a uscire dalle case e magari a dormire in macchina. Anche ammesso di indovinarci una volta su cento, non solo non si eviterebbero comunque crolli e danni in quell’unico caso, ma si creerebbero moltissimi falsi allarmi con conseguente perdita di fiducia in chi formula le previsioni. Inoltre, si rischierebbe di fuorviare l’attenzione della gente e delle amministrazioni pubbliche, convincendole ulteriormente (se ce ne fosse bisogno) a non fare nulla nel medio e lungo termine perché tanto qualcuno potrà avvisarci subito prima.
Il “forecasting” non va abbandonato, certo. Va studiato, sperimentato e migliorato. E forse un giorno potrà guidare e migliorare la nostra capacità previsionale. Ma questa è, per ora, materia di ricerca. E non è la via per ridurre il rischio sismico. Il rischio sismico si affronta lavorando pazientemente, casa dopo casa, pietra dopo pietra, per anni. Mettendo in sicurezza tutto ciò che oggi non è sicuro, ed è tantissimo (dando per scontato, ma forse non dovremmo, che le nuove costruzioni siano fatte nel modo giusto). A cominciare dalle scuole e dagli edifici pubblici e strategici. Poi l’edilizia privata, con incentivi e finanziamenti ad hoc. Ma intanto dobbiamo iniziare. In realtà qualcosina si sta facendo: per la prima volta si è costituito uno specifico fondo di oltre 900 milioni di euro (con la Legge 77 del 24 giugno 2009) per interventi di riduzione del rischio da effettuare nel periodo 2010-2016. Quasi una goccia nel mare, si direbbe, ce ne vorrebbero probabilmente cento volte tanto, forse più, ma è almeno un inizio.
E intanto, altri terremoti sono arrivati, e senza nessun preavviso, a Parma come a Reggio Emilia. Per fortuna erano profondi (30 e 60 km contro i 10 di L’Aquila, dove la faglia è arrivata a rompere la superficie) e con una magnitudo massima di 5.4, di poco sotto alla soglia del danno. Forse dovremmo prenderli come un avvertimento che ci manda la Terra. Come se ci dicesse: per favore, non aspettate la prossima tragedia.

La previsione probabilistica dei terremoti (probabilistic earthquake forecasting)
Nel caso tipico della sequenza avviata da una scossa principale forte (main shock), le rocce  intorno alla faglia su cui ha avuto luogo il terremoto subiscono un’alterazione delle loro condizioni fisiche, e questo determina centinaia o migliaia di aftershocks, quasi sempre più piccole della scossa principale. Quanto più forte è il terremoto, tanto più grande è la faglia che si muove, e tanto più estesi saranno l’area e il periodo in cui si registreranno gli aftershocks. Le leggi (empiriche) che governano la distribuzione spazio-temporale delle repliche sono ben conosciute e per questo motivo si può fare il cosiddetto forecasting, ossia prevedere - in termini probabilistici - il numero, la magnitudo e la localizzazione delle repliche, giorno dopo giorno. Nel secondo caso, ossia l’ipotesi secondo cui  piccoli terremoti possano innescarne di più grandi, non esiste un analogo campione statistico su cui fare un modello previsionale, perché ci sono molti più casi di sequenze main shock – aftershocks rispetto alle sequenze di foreshocks - main shock. E queste ultime presentano un elevatissimo grado di eterogeneità, con durate dei foreshocks, quando si manifestano, da poche ore a diversi mesi. Si adotta quindi un modello statistico analogo a quello del caso precedente, con delle assunzioni molto più forti. Le probabilità così calcolate che, dopo uno piccolo terremoto o uno sciame, se ne verifichi uno forte, sono sempre molto basse (raramente raggiungono l’1%), quindi difficilmente utilizzabili per azioni di mitigazione del rischio su intervalli temporali di ore o giorni. Un altro problema rilevante dei modelli di forecasting sismico a breve termine è che, non conoscendo la distribuzione statistica del sistema foreshocks – main shock e pur ammettendo un aumento di probabilità determinato da un terremoto relativamente piccolo (ad esempio il terremoto aquilano del 30 marzo di magnitudo 4, che ha determinato la convocazione della Commissione Grandi Rischi del 31), non si saprebbe come gestire il periodo successivo a questa scossa. Pur assumendo che le probabilità di un forte terremoto aumentino all’aumentare della sismicità e della magnitudo dei “foreshocks”, dobbiamo considerare che esse tornano rapidamente a valori bassi non appena l’attività diminuisce.

Per approfondimenti è possibile consultare questo indirizzo

Articoli correlati

Scienza in rete è un giornale senza pubblicità e aperto a tutti per garantire l’indipendenza dell’informazione e il diritto universale alla cittadinanza scientifica. Contribuisci a dar voce alla ricerca sostenendo Scienza in rete. In questo modo, potrai entrare a far parte della nostra comunità e condividere il nostro percorso. Clicca sul pulsante e scegli liberamente quanto donare! Anche una piccola somma è importante. Se vuoi fare una donazione ricorrente, ci consenti di programmare meglio il nostro lavoro e resti comunque libero di interromperla quando credi.


prossimo articolo

Siamo troppi o troppo pochi? Dalla sovrappopolazione all'Age of Depopulation

persone che attraversano la strada

Rivoluzione verde e miglioramenti nella gestione delle risorse hanno indebolito i timori legati alla sovrappopolazione che si erano diffusi a partire dagli anni '60. Oggi, il problema è opposto e siamo forse entrati nell’“Age of Depopulation,” un nuovo contesto solleva domande sull’impatto ambientale: un numero minore di persone potrebbe ridurre le risorse disponibili per la conservazione della natura e la gestione degli ecosistemi.

Nel 1962, John Calhoun, un giovane biologo statunitense, pubblicò su Scientific American un articolo concernente un suo esperimento. Calhoun aveva constatato che i topi immessi all’interno di un ampio granaio si riproducevano rapidamente ma, giunti a un certo punto, la popolazione si stabilizzava: i topi più anziani morivano perché era loro precluso dai più giovani l’accesso al cibo, mentre la maggior parte dei nuovi nati erano eliminati.