Disastro annunciato

Read time: 7 mins

A detta di alcuni esperti di fenomeni solari, ciò che è capitato il 23 luglio 2012 lo possiamo a pieno titolo catalogare tra gli scampati pericoli. Astronomicamente parlando, si è trattato di una CME (Coronal Mass Ejection), cioè un'incredibile bolla di plasma scagliata nello spazio a seguito di una supertempesta solare.
Per nostra fortuna, quando il potente flusso di materia ha raggiunto l'orbita della Terra, il nostro pianeta non era da quelle parti. Le conseguenze sarebbero state drammatiche: l'intenso flusso di particelle energetiche (principalmente protoni ed elettroni) convogliate dal campo magnetico del plasma solare - approfittando del fatto che tale campo magnetico può in alcuni punti annullare il campo magnetico terrestre - si sarebbe trovata la strada spianata per attraversare lo scudo della magnetosfera innescando fenomeni ben più devastanti di qualche disturbo alle telecomunicazioni.
Un'avvisaglia di quali conseguenze si possano presentare la si è avuta il 13 marzo 1989, quando il sovraccarico di corrente associato a un simile evento mise fuori uso numerosi trasformatori lasciando gran parte del Quebec, sei milioni di persone, senza energia elettrica per quasi 10 ore.
Che gli strascichi di una tempesta solare raggiungano la Terra non è certo un evento eccezionale e ogni volta che succede si accende nei cieli il grandioso spettacolo delle aurore polari. Quando però l'energia dell'evento cresce, allora la faccenda prende tutta un'altra piega. La più famosa tra le supertempeste è quella osservata nel settembre 1859 da Richard Carrington, la cui energia è stata stimata equivalente a quella liberata da 10 miliardi di ordigni nucleari come quello di Hiroshima. In quell'occasione furono osservate intense aurore polari perfino alle latitudini di Cuba e delle Hawaii (anche a Roma si assistette a un discreto spettacolo), ma certo meno pittoresco fu il fatto che gran parte della nascente rete telegrafica venne spazzata via.
La supertempesta del 2012 fu probabilmente caratterizzata da analoga energia. Dall'epoca di Carrington, però, sul nostro pianeta le cose erano radicalmente cambiate e oggi un blackout globale sarebbe un'autentica tragedia, le cui ricadute economiche sono valutabili dell'ordine dei 2000 miliardi di dollari. Senza poi considerare le inevitabili sofferenze della popolazione.
Lo studio dettagliato dell'evento è stato possibile grazie al satellite STEREO-A, lanciato appositamente - assieme al suo gemello STEREO-B - per osservare fenomeni di questo tipo. Nel marzo scorso su Nature Communications è stato pubblicato uno studio in cui si spiega che in realtà si è trattato di una doppia CME: ci furono dunque due supertempeste solari che si scatenarono nel volgere di neppure un quarto d'ora.
La preoccupazione per i rischi ha indotto Ashley Dale (University of Bristol) e gli altri ricercatori del gruppo di ricerca SolarMax a lanciare sul numero di agosto della rivista Physics World una sorta di appello a tutti i Governi, invitandoli ad attivarsi e pianificare le necessarie contromisure. Secondo la squadra di SolarMax la probabilità che, entro il prossimo decennio, si possa verificare un evento tipo-Carrington sarebbe del 12%. Un campanello d'allarme davvero squillante che, al di là dei possibili eccessi comunicativi, impone un'attenta valutazione del problema.
Da qualche anno qualcosa si sta già muovendo e tra i fisici che in tutto il mondo si occupano del nostro Sole la meteorologia dello spazio non è certo argomento da fantascienza. Forse, però, è giunto il momento di affrontare di petto il problema delle supertempeste solari. Obiettivo: non farci cogliere impreparati.
Per approfondire il tema, abbiamo coinvolto Mauro Messerotti, ricercatore presso l'Osservatorio Astronomico di Trieste - dove si occupa di fisica del Sole e di meteorologia dello spazio - e docente presso il Dipartimento di Fisica dell'Università di Trieste.

Professor Messerotti, lo studio sull'evento del 2012 ha scatenato un vero e proprio allarme, con valutazioni statistiche a dir poco preoccupanti. Qual è la sua opinione a proposito della possibilità che siamo ormai nell'immediata prossimità di un evento devastante come quello di Carrington? Esagerazioni per attirare l'attenzione o c'è qualcosa di vero?
In effetti non esiste una statistica significativa per gli eventi estremi, che sono molto rari. Si può stimare una frequenza di accadimento e quindi considerare il tempo trascorso dall'ultimo fenomeno osservato per stimare quando potrebbe verificarsi l'evento successivo. Poiché tale statistica non è consolidata, le stime ricavate in modo semplificato non possono ritenersi affidabili, ma piuttosto delle indicazioni di massima.

Ad esempio, sappiamo che la supertempesta di Carrington-Hodgson è avvenuta nel 1859 e si stima che tempeste di questo tipo possano verificarsi ogni 500-600 anni. Sono trascorsi 155 anni da quell'evento, ma non è detto - trattandosi di una stima statistica - che il prossimo si verificherà tra 447 anni. Nulla vieta che possa accadere domani oppure tra 1000 anni. Dato che non conosciamo in dettaglio la fisica di tutta la catena di processi che porta al verificarsi delle supertempeste solari e le conseguenti tempeste geomagnetiche, non siamo in grado di fornire dati certi sul loro verificarsi.
Sappiamo però che le supertempeste spesso si verificano nella fase di declino del ciclo di attività solare e che, come quella di Carrington-Hodgson, si osservano anche in cicli di attività di modesta entità, proprio come quello attuale che si sta avviando alla fase di declino. Ecco perché i ricercatori hanno considerato la possibilità che una supertempesta solare possa verificarsi a breve termine: non si tratta di allarmismo, ma di consapevolezza che la possibilità non deve essere ignorata.

Entrando nel merito di un simile evento, in una civiltà come la nostra così dipendente dalla tecnologia elettrica ed elettronica quali conseguenze comporta una super tempesta solare? Quali potrebbero essere i tempi di recupero dai danni provocati da un simile evento?
La Federal Emergency Management Agency (FEMA) negli Stati Uniti ha condotto uno studio in proposito, basato sullo scenario nel quale una supertempesta geomagnetica danneggia numerosi trasformatori per l'altissima tensione, causando la mancanza di energia per 100 milioni di utenti. In particolare: 100 milioni di persone rimangono prive di elettricità per 36 ore, per 35 milioni di esse l'assenza di elettricità si protrae fino a due settimane, mentre in tre Stati 10 milioni di persone rimangono senza corrente per quasi due mesi. I tempi di recupero dipendono dalla disponibilità sul mercato di trasformatori e parti di ricambio per sostituire o riparare i dispositivi della catena elettrica di distribuzione che sono stati danneggiati.

Nonostante la maggior parte dei sistemi di comunicazione non venga danneggiata, il fattore limitante è la mancanza di elettricità. I possibili impatti sulle infrastrutture critiche li possiamo così sintetizzare: lo svuotamento delle derrate alimentari nei supermercati in 24 ore dal verificarsi del blackout per la corsa delle persone all'accaparramento; per lo stesso motivo, la ridotta disponibilità di carburanti; infine, la mancanza di refrigerazione, telefoni, accesso a Internet e transazioni elettroniche a seguito della mancanza di elettricità.

Parliamo di contromisure. Ammettiamo che un efficiente sistema di meteorologia spaziale lanci l'allarme: cosa possiamo fare in concreto per attenuare i disastri? E' sufficiente "togliere la spina"?
Dato che il malfunzionamento, risultato della perturbazione, avviene a livello di centrale, ovvero dove i lunghi conduttori dell'alta tensione trasportano l'elettricità ai trasformatori, l'utente finale viene interessato dalla mancanza di corrente elettrica e non da sovratensioni pericolose alla presa elettrica di casa. Questa, infatti, è servita in bassa tensione da conduttori elettrici non aerei e di lunghezza limitata. Quindi l'attenuazione deve avvenire a livello di infrastruttura elettrica, che deve essere progettata con adeguati sezionamenti a ridondanze atti a minimizzare gli effetti delle correnti elettriche indotte dalle tempeste geomagnetiche. Sono infatti queste correnti che, sovrapponendosi alle correnti elettriche standard della linea, causano la fusione dei trasformatori che si trovano a lavorare in un regime per il quale non sono stati progettati.

Qual è il ruolo della ricerca italiana in tema di astronomia solare e di meteorologia spaziale? A tal proposito, a che punto è la realizzazione di un network italiano per la meteorologia spaziale di cui si parla ormai da quasi quindici anni?
Proprio per studiare queste problematiche, alla fine del prossimo mese di Ottobre si costituirà in Italia la SWICO (Space Weather Italian Community), un gruppo di ricercatori italiani che operano nelle università e negli enti di ricerca e sono specializzati nei vari aspetti che caratterizzano la Meteorologia dello spazio e vanno dalla Fisica solare ed eliosferica alla Fisica del geospazio. L'interesse della componente scientifica italiana è supportato dall'interesse dell'industria che si occupa di problematiche spaziali. Inoltre, l'attività che SWICO svilupperà si inserirà nel progetto dell'Agenzia Spaziale Europea, denominato Space Situational Awareness (SSA), di cui un segmento è proprio la Meteorologia dello spazio (Space Weather) e che vede la partecipazione delle agenzie spaziali dei paesi europei, tra cui l'Agenzia Spaziale Italiana.

Per approfondire:

FEMA Workshop - 2010
Institute for Energy & the Environment - 2011

SolarMAX Final Report - 2013

Aggiungi un commento

Canaletto e Bellotto: pittori o geometri?

Read time: 9 mins
Canaletto, Campo Santi Giovanni e Paolo, 1738 circa.

Dovendo scegliere tra un pittore e un topografo, a chi affidereste il compito di rappresentare realisticamente ed efficacemente un determinato paesaggio, urbano o rurale? Ipotizziamo che decidiate di affidare il lavoro a un artista con cui pattuite l’esecuzione di un dipinto a olio su tela. E se l’artista che avete incaricato facesse uso di mezzi tecnici, ad esempio di apparecchiature ottiche, in un certo senso invadendo il campo e appropriandosi dei trucchi del mestiere e delle competenze della concorrenza? Denuncereste la violazione del patto - non scritto - che ha stipulato con voi e lo giudichereste un artista che bara o addirittura un artista dimezzato?

È questo il dubbio che devono essersi posti, già nella prima metà del Settecento, Antonio Canal, detto Canaletto e suo nipote Bernardo Bellotto (pure lui per un certo periodo noto come Canaletto, diciamo per mere ragioni di marketing). I due, infatti, il primo essendo maestro del secondo, fecero ampio e documentato uso di un’apparecchiatura ottica nota come camera obscura senza peraltro mai molto sbandierare questo loro “segreto industriale”: la utilizzarono costantemente come sussidio per tracciare con sicurezza le linee portanti dei volumi dei loro dipinti e le sagome dei monumenti e degli edifici che hanno rappresentato negli affascinanti dipinti a olio presenti in musei, gallerie e collezioni di enti e di privati in tutto il mondo. Sono stati, Canaletto e Bellotto, tra i primi e certamente i più noti esponenti del cosiddetto vedutismo, genere pittorico nato a Venezia nel primo Settecento. Molti loro schizzi (“scaraboti”) e disegni preparatori, a matita e penna su carta, sono arrivati fino a noi e sono conservati, raccolti in quaderni, in vari musei, tra cui le Gallerie dell’Accademia a Venezia.

La camera oscura portatile in legno appartenuta secondo alcuni studiosi a Canaletto. Si può vederla all'ingresso della mostra “Bellotto e Canaletto. Lo stupore e la luce”, alle Gallerie d’Italia in Piazza della Scala a Milano.

Come porsi, dunque, di fronte alla legittimità e opportunità dell’uso intensivo della camera obscura da parte di quei pittori? Si tratta semplicemente di un utile strumento ausiliario o è invece una criticabile pratica tecnica che, se applicata in modo pedissequo nella realizzazione dei dipinti, minaccia di ostacolare e compromettere la creazione artistica, esponendo così il pittore al rischio di vedersi relegato nell’angusto e sgradito ruolo esecutivo di “geometra dell’ufficio tecnico”?

Per rispondere a questa domanda, serve forse chiedersi perché  alcuni pittori, soprattutto settecenteschi, abbiano sentito l’esigenza di utilizzare la camera obscura, o camera ottica. La risposta molto probabilmente va cercata nel clima culturale dell’epoca di cui stiamo parlando: con l’Illuminismo, infatti, si impone un nuovo sguardo sulla realtà, più oggettivo, più scientifico e l’esattezza della rappresentazione pittorica del paesaggio è solo uno dei campi in cui questa nuova visione del mondo si manifesta.

Questa tematica complessa, di cui cercheremo di fornire qualche utile elemento di conoscenza e di riflessione, colpisce immediatamente il visitatore della bella mostra “Bellotto e Canaletto. Lo stupore e la luce”, alle Gallerie d’Italia in Piazza della Scala a Milano. Nelle quasi cento opere in mostra si possono ammirare le precise rappresentazioni (quanto precise effettivamente siano, tra poco lo scopriremo) di palazzi e canali, campi (nel senso veneziano della parola) e piazze di città del centro Europa, campagne e scorci di ruderi dell’antichità talmente dettagliate da sembrare fotografie, il tutto sempre sapientemente illuminato da luci oblique e radenti, perfettamente adatte a scolpire la tridimensionalità degli edifici. Per meglio comprendere il senso di queste immagini si rende necessario, però, un salto indietro nella storia della scienza e della tecnica.

La conquista della prospettiva

Nel corso degli ultimi tre millenni, non sono mancati studi teorici e sperimentazioni pratiche per cercare di risolvere un problema, sia concettuale, sia concreto: quello della rappresentazione della realtà tridimensionale su una superficie piana, bidimensionale. Problema che stava a cuore a due categorie apparentemente assai distanti tra loro di esseri umani: i matematici e i pittori, vale a dire, in un senso più ampio, gli scienziati e gli artisti.

Precisiamo, per quanto possa sembrare a questo punto scontato, che stiamo parlando di “prospettiva” e di “geometria proiettiva”. Nelle prime testimonianze visive arrivate fino a noi, quelle raffiguranti scene di caccia rinvenute nei dipinti rupestri delle grotte paleolitiche, i nostri antenati non sembrano essere stati sfiorati dal desiderio di suggerire un senso di profondità alle loro immagini. Occorre quindi fare un balzo temporale in avanti di parecchi millenni per vedere qualche tentativo di rappresentazione prospettica del reale: in qualche disegno di epoca egizia, duemila anni prima di Cristo, appaiono molto timidamente i concetti della similitudine e della prospettiva, con edifici rappresentati in pianta e alzato, per quanto, a dire il vero, la maggior parte delle immagini egizie giunte fino a noi raffigurino piuttosto una realtà prevalentemente bidimensionale (di profilo). Nemmeno l’epoca della cultura Assiro Babilonese sembra sentire l’urgenza di descrivere un mondo a tre dimensioni e, ad esempio, i bassorilievi di leoni e altri animali presenti sulle pareti della Porta di Ishtar (sec. VI a.C.), conservata al Pergamon Museum di Berlino, ci appaiono nella loro fissità, isolate e di profilo su uno sfondo uniforme, privo di profondità. In estremo oriente la prospettiva, almeno a livello di studi teorici, sembra far capolino solamente in un trattato cinese per la determinazione delle ombre del IV secolo a.C., ma risalente secondo alcuni storici addirittura al 1100 a.C.

Ma è solo con i grandi matematici greci che inizia uno studio rigoroso delle regole di rappresentazione geometrica dello spazio. Spicca tra tutti il nome di Euclide, vissuto ad Alessandria (allora una colonia greca) a cavallo tra quarto e terzo secolo a.C., noto per la sua imponente opera Elementi grazie alla quale è passato alla storia della matematica.  Nell’Ottica, suo meno noto trattato, Euclide pone invece le fondamenta della geometria descrittiva, chiamata poi, a partire dal diciannovesimo secolo, “geometria proiettiva”.

Proseguendo nella nostra carrellata storica, la civiltà romana sembra da un lato orientata alla sperimentazione pittorica, dall’altro lato alla teorizzazione. Sul versante pratico, attraverso dipinti e mosaici (ad esempio nel mosaico pompeiano di Alessandro alla battaglia di Isso), si assiste alla rappresentazione della tridimensionalità, pur essendo chiaro che non era ancora maturata una consapevolezza precisa delle regole della convergenza verso un unico punto. Dall’altro lato, quello più teorico, attraverso gli scritti di Vitruvio (architetto e scrittore del primo secolo a.C.) si approfondiscono i problemi legati alla scenografia e alla rappresentazione degli edifici.

Il più antico disegno pubblicato noto di una camera oscura si trova nel trattato "De Radio Astronomica et Geometrica" (1545) del medico, matematico e costruttore di strumenti olandese Gemma Frisius (nato Jemme Reinerszoon), in cui l'autore descrive ed illustra come ha usato la camera oscura per studiare l'eclissi solare del 24 gennaio 1544.

Prima di arrivare al Rinascimento italiano, nel XIV secolo, durante il quale architetti/pittori/matematici, da Filippo Brunelleschi a Leon Battista Alberti e da Piero della Francesca fino a Leonardo da Vinci, applicando rigorosi metodi matematici hanno definito in maniera fino ad allora sconosciuta le regole della prospettiva, è necessario menzionare altri studiosi medievali che li hanno preceduti. Tra questi vale la pena ricordare in particolar modo lo scienziato/filosofo arabo Al-Kindi (IX secolo) e soprattutto  il matematico, fisico, medico e filosofo Alhazen (XI secolo), nato a Bassora ma trasferitosi presto al Cairo. A quest’ultimo, autore del trattato in sette volumi sull’Ottica Kitab al-Manazir, tradotto in latino da Gherardo da Cremona nella seconda metà del XII secolo, sono attribuite le prime osservazioni relative al passaggio dei raggi di luce attraverso un foro e al loro viaggiare in linea retta senza mai confondersi, generando su una superficie, posta al di là del piano contenente il foro, immagini rovesciate direttamente corrispondenti alle forme degli oggetti dai quali la luce proviene.

Bellissime scientifiche finzioni

Si tratta esattamente della descrizione del principio della camera obscura (o camera oscura, detta anche camera ottica) strumento che finalmente ci porta a parlare del lavoro di Bellotto e Canaletto, noti soprattutto per le vedute di Venezia, ma attivi anche in altre città d’Italia e d’Europa visitate durante viaggi di lavoro o in alcuni casi diventate luogo di residenza (Roma, Firenze, Verona, la Lombardia, Londra, Dresda, Vienna, Monaco di Baviera, Varsavia). All’ingresso della mostra delle Gallerie d’Italia di Milano (visitabile fino al 5 marzo), il primo oggetto che ci accoglie, racchiuso entro una teca trasparente, è proprio una camera oscura portatile in legno appartenuta forse (ma secondo alcuni studiosi probabilmente no) a Canaletto. Il primo quadro della mostra, una tela di Canaletto, è il Campo Santi Giovanni e Paolo (circa 1738), di cui sono arrivati a noi anche gli schizzi preparatori (visibili in mostra su un monitor), fatti certamente con l’ausilio di una camera obscura.

Schizzi preparatori per la tela Campo Santi Giovanni e Paolo (circa 1738) di Canaletto.

Quello che colpisce a prima vista nel quadro è una precisione e un apparente realismo “di qualità fotografica”, ma un confronto diretto con quell’angolo di Venezia, tutt’oggi conservato quasi esattamente come all’epoca del dipinto, permette di scoprire che l’artista ha, sì, operato partendo da una ricognizione fatta per mezzo della camera ottica, ma ha anche arbitrariamente spostato il suo punto di osservazione tra uno schizzo e l’altro, tra una seduta di disegno e l’altra. Così facendo, ma ricomponendo con maestria più “riprese” fatte da punti di osservazione distinti, come dimostrato nel 1959 dallo storico dell’arte e massimo studioso della prospettiva Decio Gioseffi, Canaletto crea l’illusione di un punto di vista unico, più lontano, ma oggettivamente impossibile da realizzare nella pratica per la presenza di edifici al di qua del canale, il Rio dei Mendicanti, che si trova in primo piano nel quadro. Nelle parole della curatrice della mostra, Bożena Anna Kowalczyk: “un’immagine altamente sofisticata, irreale nelle proporzioni dei monumenti e nelle distanze, ma di grande bellezza.”

E qui torniamo alla domanda con cui abbiamo aperto l’articolo: per rappresentare la realtà del mondo preferiamo un pittore o un topografo, un artista o un geometra? La risposta, visti i risultati e soprattutto considerati i procedimenti e le strumentazioni utilizzate, sembra essere meno netta del previsto. Svelato il mistero dell’utilizzo “creativo” di uno strumento di conoscenza oggettiva come la camera ottica opteremmo per un tipo particolare di artista, come appunto Bellotto e Canaletto, che abbia fatta sua un’impostazione come quella qui ben descritta:

“Quelli che s’innamorano della pratica senza la scienza, sono come i nocchieri che entrano in naviglio senza timone o bussola, che mai hanno certezza dove si vadano. Sempre la pratica dev’essere edificata sopra la buona teorica, della quale la prospettiva è guida e porta, e senza questa nulla si fa bene” . Leonardo da Vinci – Trattato della Pittura, parte seconda - 77. Dell'errore di quelli che usano la pratica senza la scienza.

 

Cover: Antonio Canal, detto il Canaletto, Campo santi Giovanni e Paolo, 1738 ca, olio su tela, 46,4x78,1 cm, Londra, Royal Collection. Prestato da Sua Maestà Elisabetta II e visibile nella mostra “Bellotto e Canaletto. Lo stupore e la luce”, dal 25 novembre 2016  al 5 marzo 2017 alle Gallerie d’Italia, Piazza della Scala, Milano.