Perché lo “spread” si cura con ricerca e innovazione

Read time: 9 mins

Intervenire su una crisi economica quale è quella che sta attraversando l’Europa in generale, e l’Italia in particolare, richiede un’analisi delle sue cause ben più complessa di quella che normalmente viene diffusa dai grandi mezzi d’informazione. Il termine di riferimento di tale crisi è – come ben noto – rappresentato dai valori dello “spread”, o in altre parole del differenziale (positivo) tra tassi di interesse sui titoli dei paesi “a rischio” e tassi dei titoli tedeschi - come “premio” per gli investitori per l’incertezza che grava sulla solidità delle economie più deboli - la cui crescente entità aumenta l’onere dei cosiddetti “debiti sovrani”. Comprendere quali siano le ragioni che inducono gli investitori a valutare la debolezza di una economia, diventa allora essenziale per poter poi concepire azioni efficaci per la riduzione  dello “spread”, che consentano quindi di liberare risorse per riavviare il processo di crescita.

Le cronache correnti sono molto nette nell’indicare le cause dell’aumento dello “spread”. Esso stesso deriverebbe dall’onere dei “debiti sovrani”, i quali, sovraccaricati a loro volta dalla spesa per il pagamento di maggiori interessi, lo metterebbero ulteriormente sotto pressione, mantenendolo elevato o facendolo ancora aumentare, dando vita infine ad una sorta di circolo vizioso “debito-spread-debito”. Ma se è vero che l’onere da interessi contribuisce ad un peggioramento del quadro debitorio, è sbagliato imputare alle condizioni del debito pubblico, quali sono quelle che si son venute determinando nel corso della presente crisi, l’origine delle cattive condizioni in cui versano le economie in cui lo “spread” è particolarmente elevato. Capire perché questo è sbagliato è molto importante non solo per ricostruire un quadro della crisi in cui si dia conto del reale svolgimento dei processi che hanno scatenato la sofferenza finanziaria dei “debiti sovrani”, ma anche, e soprattutto, affinché le politiche da attuare per “allentare” la pressione sullo spread, siano efficaci e non controproducenti.

Le politiche dell’ “austerità” – il cui obiettivo consiste nell’abbattere il carico del debito pubblico attraverso consistenti manovre di tagli alla spesa pubblica ed aumento dell’imposizione fiscale – sono state le grandi protagoniste dell’anno che sta per concludersi, supportate dall’idea che alla base dei “debiti sovrani” vi fosse una “finanza pubblica malata”, espressione di un settore pubblico ingombrante e non adeguato a creare gli stimoli giusti per la crescita economica. Per rafforzare le ragioni che indicavano tali politiche come le uniche percorribili, conferendo loro ampia legittimazione nonché consenso,  è stato ripetutamente sostenuto (financo ai limiti dell’ossessione) che – in misura diversa – i paesi europei sono “vissuti al di sopra delle proprie possibilità”, e che con il sopraggiungere della crisi economica era dunque giunto il momento di intraprendere la strada della “disciplina di bilancio”, a maggior ragione nelle economie più critiche della cosiddetta “periferia europea”, rappresentate essenzialmente da Spagna, Portogallo, Grecia e Italia. Sta di fatto che – come era lecito attendersi – queste politiche hanno mostrato tutti i loro limiti, avendo sortito effetti recessivi più o meno gravi sulle dinamiche della crescita economica, che non hanno fatto altro che da leva per ulteriori aumenti dell’onere del debito, sia in termini assoluti sia in termini relativi (in ragione del maggior peso che un debito anche di entità più ridotta può assumere su valori decrescenti del reddito nazionale). E si tratta di un fallimento talmente evidente, che nemmeno le maggiori istituzioni internazionali – come il Fondo Monetario Internazionale - si sono potute esimere dal riconoscerlo.

In questa vicenda c’è però qualcosa di ancor più importante, che troppo è stato  (ed è per lo più) ancora taciuto: una diagnosi sbagliata della crisi, che affonda le proprie radici in una mistificazione delle vere cause all’origine dell’esplosione dei “debiti sovrani”. Non è certamente secondario valutare la dannosità (peraltro “annunciata”, a dispetto di qualsiasi fola in circolazione sull’ “austerità espansiva”) delle politiche del “rigore di bilancio”, ma risalire alle cause prime del dissesto in corso ed identificare quelli che sono i reali fattori di pressione sullo “spread” (e dunque – indubbiamente - sul peggioramento della situazione debitoria) è fondamentale per poter correttamente individuare lo spazio e la direzione di politiche di intervento che consentano non solo il superamento della crisi (nel breve periodo), ma anche l’innesco di processi di crescita duratura (nel lungo periodo).

Il primo passo sta innanzitutto nel riconoscere che la “crisi dei debiti sovrani” è figlia legittima del debito privato, uno “tsunami” che allo scoppio della crisi finanziaria internazionale sul finire del 2008, ha visto costretti i governi delle maggiori economie occidentali ad intervenire pesantemente in operazioni di salvataggio del sistema bancario. Addebitare ad una sorta di “statalismo scellerato” la crisi dei “debiti sovrani” è pertanto – innanzitutto – falso. Le statistiche sui bilanci pubblici parlano chiaro in tal senso (fatta salva, naturalmente, la vicenda tutta peculiare della Grecia, in cui si è palesemente riscontrato un “falso in bilancio” di natura pubblica), mostrando peraltro come in Europa le situazioni debitorie pubbliche dei paesi “periferici” fossero in taluni casi (Spagna) persino più contenute di quella dell’economia tedesca, notoriamente “paladina” del “rigore” e della “disciplina di bilancio”. Questo ci dice, pertanto, che non esiste – né è esistita prima – una sorta di “crisi endemica” dei bilanci pubblici e che – data la reale causa dei presenti dissesti – i problemi relativi ai margini di manovra per interventi pubblici “espansivi” sono da ricercarsi altrove: in Europa, in particolare, nell’assenza di un bilancio federale e di una Banca Centrale deputata a fungere - come dovrebbe - da “prestatore di ultima istanza”, non essendo tali istituti previsti nell’attuale costruzione dell’euro, diversamente da quanto si riscontra nell’economia degli Stati Uniti.

Il secondo passo da compiere sta nell’intercettare la direzione che politiche di intervento pubblico dovrebbero intraprendere, nel senso di creare in ciascun paese le migliori condizioni permissive per il suo sviluppo. Accertato che il mercato non possiede capacità di autoregolazione – contrariamente agli assunti delle teorie liberiste che hanno dominato nel corso degli ultimi trenta anni e che a tutt’oggi sono il fulcro del cosiddetto mainstream economico – il problema sta nel comprendere come attivare i meccanismi di traino della domanda aggregata, sia essa interna o estera. Ed è questo un passaggio cruciale: si tratta infatti di un’operazione che chiama in campo una strumentazione molto ampia, che dovrebbe correggere tanto i deficit di domanda interna – determinati spesso anche da una distribuzione del reddito sfavorevole ai redditi medio-bassi con più alta propensione al consumo – quanto quelli di domanda estera, che si giocano non solo sul traino diretto esercitato dalle esportazioni, ma anche sulla capacità di queste di equilibrare le importazioni, dando luogo – a seconda dei casi – a surplus o deficit commerciali, o in altri termini a domanda “netta” estera positiva o negativa. La valenza dei saldi commerciali è inoltre particolarmente importante, poiché è in funzione di essa che si determina la posizione creditoria o debitoria dei paesi sull’estero, concorrendo a definire la posizione debitoria o creditoria complessiva di ciascun paese.

Nel quadro della situazione europea sono in effetti le posizioni debitorie/creditorie complessive a differenziare “strutturalmente” le economie dei diversi paesi, e a caratterizzare in particolar modo la debolezza dei paesi periferici. E se di “endemicità” del debito si vuole parlare, è al debito estero che bisogna guardare, facendo riferimento ad un periodo esteso antecedente la crisi. Emerge così – nitidamente – la criticità delle economie dei paesi “periferici” in un lasso di tempo sufficientemente esteso tale da escludere che l’unica causa della fragilità dei conti con l’estero debba essere ricercata nelle forti politiche deflative sui salari messe in campo dalla Germania per acquisire competitività all’interno dell’area euro. Tra i “nervi scoperti” dei deficit esteri dei paesi periferici, significativa appare in particolare la debolezza competitiva nei settori manifatturieri high-tech, per i quali la dinamica della domanda mondiale risulta crescente e accelerata dalla seconda metà degli anni ’80 . Una rinnovata attenzione per il ruolo propulsivo rivestito dallo sviluppo di un settore manifatturiero innovativo induce a guardare con grande attenzione a questo “debito estero” di lungo periodo, che fa da cartina al tornasole di importanti carenze strutturali delle economie di questi paesi, e dunque del maggior/minor grado di forza/debolezza sistemica di ciascun paese che tale stato di cose riflette, con conseguenze  di rilievo sulle valutazioni degli investitori.

Saldi commerciali nei prodotti high-tech (milioni di $ correnti)
Fonte: Osservatorio Enea sulla Competitività Tecnologica

La situazione dell’Italia – coerente in tendenza con quella degli altri paesi della periferia d’Europa – appare oltremodo critica, tenuto conto della sua dimensione economica e del ruolo portante tradizionalmente rivestito nella sua struttura produttiva dal settore manifatturiero . La crisi di competitività italiana – come già diffusamente ricordato nei precedenti interventi di Pietro Greco e di Sergio Ferrari - è ben antecedente all’attuale crisi e viene da lontano, esprimendo il mancato adattamento del sistema produttivo ai nuovi paradigmi dell’innovazione tecnologica. L’assenza di interventi di politica industriale tesi a riconfigurare la specializzazione produttiva dell’Italia verso settori a maggior intensità tecnologica, ha col tempo reso sempre più oneroso il deficit commerciale derivante dagli scambi di prodotti high-tech del nostro Paese. L’onere – per così dire – strutturale di importazioni di beni ad alta tecnologia del tutto “fisiologiche” per un paese industriale avanzato quale è il nostro, è stato – soprattutto a partire dalla seconda metà degli anni ’80 – sempre meno compensato dalle esportazioni, mentre a livello di bilancia manifatturiera complessiva ha iniziato a pesare la minor domanda mondiale rivolta ai prodotti di tipo “tradizionale”, con l’aggravante che dopo l’entrata nell’euro non è stato più possibile mettere mano a manovre svalutative e sempre maggiori si sono fatte le pressioni sul mercato del lavoro, favorendo la precarizzazione dell’occupazione e di qui la spinta al ribasso sui salari per recuperare in competitività. La crisi competitiva dell’Italia –nel confronto con i maggiori paesi europei e con le economie del Nord - Europa – come già ricordato nei precedenti interventi – si è configurata come “crisi specifica”, che non può, evidentemente, non gravare sull’esito della crisi più generale che sta investendo l’Europa tutta. Ma sarebbe errato non circoscriverla entro i caratteri che le sono propri e che – come visto – alimentano “strutturalmente” l’onere del debito estero.

All’oblio in cui sono state relegati i processi dell’economia reale, in un contesto in cui la finanza sembra essere d’un tratto diventata l’alfa e l’omega di tutte le vicende economiche, deve essere – in generale -posto un fine, e il caso italiano deve ricevere ancora maggior attenzione. Decenni di mancati interventi di politica industriale, unitamente all’abbandono dell’investimento pubblico in ricerca, hanno prodotto un’endemica fragilità del debito estero dell’Italia, l’esemplificazione più netta di un paese che “consuma” innovazione ma che non ne produce a sufficienza da rendere sostenibile il suo status di economia industriale avanzata. La grande sfida che immediatamente deve essere lanciata in nome della “guerra” allo “spread” – e dunque in nome di prospettive di rilancio dell’economia e di sviluppo duraturo – non può dunque non partire che da un’attenzione per politiche di intervento pubblico significativamente focalizzate sul rilancio degli investimenti in ricerca e sulla rigenerazione del tessuto industriale in settori a più “alta intensità tecnologica”, con ciò intendendo una reale riedizione dei settori produttivi e non, come spesso erroneamente si argomenta, la messa in atto di correttivi finanziari volti ad incentivare le spese in ricerca e sviluppo delle imprese. Le componenti scientifiche e tecnologiche del sistema italiano non sono infatti seconde per qualità a quelle degli altri maggiori paesi europei (Oecd, STI Outlook 2012), ma non rappresentano una massa critica adeguata a rendere competitivo il Paese, innalzandone il potenziale di sviluppo. Di tempo ne è stato perso già molto, ma – a maggior ragione -è questa la strada che deve essere intrapresa al più presto per non rischiare che il Paese registri ritardi ancor più significativi alla ripresa del ciclo internazionale e non sia in grado di cogliere tutte quelle opportunità che con  i nuovi contesti tecnologici – quali ad esempio quelli prospettati dalle necessità della riconversione ambientale – si stanno prefigurando all’orizzonte.

Aggiungi un commento

Canaletto e Bellotto: pittori o geometri?

Read time: 9 mins
Canaletto, Campo Santi Giovanni e Paolo, 1738 circa.

Dovendo scegliere tra un pittore e un topografo, a chi affidereste il compito di rappresentare realisticamente ed efficacemente un determinato paesaggio, urbano o rurale? Ipotizziamo che decidiate di affidare il lavoro a un artista con cui pattuite l’esecuzione di un dipinto a olio su tela. E se l’artista che avete incaricato facesse uso di mezzi tecnici, ad esempio di apparecchiature ottiche, in un certo senso invadendo il campo e appropriandosi dei trucchi del mestiere e delle competenze della concorrenza? Denuncereste la violazione del patto - non scritto - che ha stipulato con voi e lo giudichereste un artista che bara o addirittura un artista dimezzato?

È questo il dubbio che devono essersi posti, già nella prima metà del Settecento, Antonio Canal, detto Canaletto e suo nipote Bernardo Bellotto (pure lui per un certo periodo noto come Canaletto, diciamo per mere ragioni di marketing). I due, infatti, il primo essendo maestro del secondo, fecero ampio e documentato uso di un’apparecchiatura ottica nota come camera obscura senza peraltro mai molto sbandierare questo loro “segreto industriale”: la utilizzarono costantemente come sussidio per tracciare con sicurezza le linee portanti dei volumi dei loro dipinti e le sagome dei monumenti e degli edifici che hanno rappresentato negli affascinanti dipinti a olio presenti in musei, gallerie e collezioni di enti e di privati in tutto il mondo. Sono stati, Canaletto e Bellotto, tra i primi e certamente i più noti esponenti del cosiddetto vedutismo, genere pittorico nato a Venezia nel primo Settecento. Molti loro schizzi (“scaraboti”) e disegni preparatori, a matita e penna su carta, sono arrivati fino a noi e sono conservati, raccolti in quaderni, in vari musei, tra cui le Gallerie dell’Accademia a Venezia.

La camera oscura portatile in legno appartenuta secondo alcuni studiosi a Canaletto. Si può vederla all'ingresso della mostra “Bellotto e Canaletto. Lo stupore e la luce”, alle Gallerie d’Italia in Piazza della Scala a Milano.

Come porsi, dunque, di fronte alla legittimità e opportunità dell’uso intensivo della camera obscura da parte di quei pittori? Si tratta semplicemente di un utile strumento ausiliario o è invece una criticabile pratica tecnica che, se applicata in modo pedissequo nella realizzazione dei dipinti, minaccia di ostacolare e compromettere la creazione artistica, esponendo così il pittore al rischio di vedersi relegato nell’angusto e sgradito ruolo esecutivo di “geometra dell’ufficio tecnico”?

Per rispondere a questa domanda, serve forse chiedersi perché  alcuni pittori, soprattutto settecenteschi, abbiano sentito l’esigenza di utilizzare la camera obscura, o camera ottica. La risposta molto probabilmente va cercata nel clima culturale dell’epoca di cui stiamo parlando: con l’Illuminismo, infatti, si impone un nuovo sguardo sulla realtà, più oggettivo, più scientifico e l’esattezza della rappresentazione pittorica del paesaggio è solo uno dei campi in cui questa nuova visione del mondo si manifesta.

Questa tematica complessa, di cui cercheremo di fornire qualche utile elemento di conoscenza e di riflessione, colpisce immediatamente il visitatore della bella mostra “Bellotto e Canaletto. Lo stupore e la luce”, alle Gallerie d’Italia in Piazza della Scala a Milano. Nelle quasi cento opere in mostra si possono ammirare le precise rappresentazioni (quanto precise effettivamente siano, tra poco lo scopriremo) di palazzi e canali, campi (nel senso veneziano della parola) e piazze di città del centro Europa, campagne e scorci di ruderi dell’antichità talmente dettagliate da sembrare fotografie, il tutto sempre sapientemente illuminato da luci oblique e radenti, perfettamente adatte a scolpire la tridimensionalità degli edifici. Per meglio comprendere il senso di queste immagini si rende necessario, però, un salto indietro nella storia della scienza e della tecnica.

La conquista della prospettiva

Nel corso degli ultimi tre millenni, non sono mancati studi teorici e sperimentazioni pratiche per cercare di risolvere un problema, sia concettuale, sia concreto: quello della rappresentazione della realtà tridimensionale su una superficie piana, bidimensionale. Problema che stava a cuore a due categorie apparentemente assai distanti tra loro di esseri umani: i matematici e i pittori, vale a dire, in un senso più ampio, gli scienziati e gli artisti.

Precisiamo, per quanto possa sembrare a questo punto scontato, che stiamo parlando di “prospettiva” e di “geometria proiettiva”. Nelle prime testimonianze visive arrivate fino a noi, quelle raffiguranti scene di caccia rinvenute nei dipinti rupestri delle grotte paleolitiche, i nostri antenati non sembrano essere stati sfiorati dal desiderio di suggerire un senso di profondità alle loro immagini. Occorre quindi fare un balzo temporale in avanti di parecchi millenni per vedere qualche tentativo di rappresentazione prospettica del reale: in qualche disegno di epoca egizia, duemila anni prima di Cristo, appaiono molto timidamente i concetti della similitudine e della prospettiva, con edifici rappresentati in pianta e alzato, per quanto, a dire il vero, la maggior parte delle immagini egizie giunte fino a noi raffigurino piuttosto una realtà prevalentemente bidimensionale (di profilo). Nemmeno l’epoca della cultura Assiro Babilonese sembra sentire l’urgenza di descrivere un mondo a tre dimensioni e, ad esempio, i bassorilievi di leoni e altri animali presenti sulle pareti della Porta di Ishtar (sec. VI a.C.), conservata al Pergamon Museum di Berlino, ci appaiono nella loro fissità, isolate e di profilo su uno sfondo uniforme, privo di profondità. In estremo oriente la prospettiva, almeno a livello di studi teorici, sembra far capolino solamente in un trattato cinese per la determinazione delle ombre del IV secolo a.C., ma risalente secondo alcuni storici addirittura al 1100 a.C.

Ma è solo con i grandi matematici greci che inizia uno studio rigoroso delle regole di rappresentazione geometrica dello spazio. Spicca tra tutti il nome di Euclide, vissuto ad Alessandria (allora una colonia greca) a cavallo tra quarto e terzo secolo a.C., noto per la sua imponente opera Elementi grazie alla quale è passato alla storia della matematica.  Nell’Ottica, suo meno noto trattato, Euclide pone invece le fondamenta della geometria descrittiva, chiamata poi, a partire dal diciannovesimo secolo, “geometria proiettiva”.

Proseguendo nella nostra carrellata storica, la civiltà romana sembra da un lato orientata alla sperimentazione pittorica, dall’altro lato alla teorizzazione. Sul versante pratico, attraverso dipinti e mosaici (ad esempio nel mosaico pompeiano di Alessandro alla battaglia di Isso), si assiste alla rappresentazione della tridimensionalità, pur essendo chiaro che non era ancora maturata una consapevolezza precisa delle regole della convergenza verso un unico punto. Dall’altro lato, quello più teorico, attraverso gli scritti di Vitruvio (architetto e scrittore del primo secolo a.C.) si approfondiscono i problemi legati alla scenografia e alla rappresentazione degli edifici.

Il più antico disegno pubblicato noto di una camera oscura si trova nel trattato "De Radio Astronomica et Geometrica" (1545) del medico, matematico e costruttore di strumenti olandese Gemma Frisius (nato Jemme Reinerszoon), in cui l'autore descrive ed illustra come ha usato la camera oscura per studiare l'eclissi solare del 24 gennaio 1544.

Prima di arrivare al Rinascimento italiano, nel XIV secolo, durante il quale architetti/pittori/matematici, da Filippo Brunelleschi a Leon Battista Alberti e da Piero della Francesca fino a Leonardo da Vinci, applicando rigorosi metodi matematici hanno definito in maniera fino ad allora sconosciuta le regole della prospettiva, è necessario menzionare altri studiosi medievali che li hanno preceduti. Tra questi vale la pena ricordare in particolar modo lo scienziato/filosofo arabo Al-Kindi (IX secolo) e soprattutto  il matematico, fisico, medico e filosofo Alhazen (XI secolo), nato a Bassora ma trasferitosi presto al Cairo. A quest’ultimo, autore del trattato in sette volumi sull’Ottica Kitab al-Manazir, tradotto in latino da Gherardo da Cremona nella seconda metà del XII secolo, sono attribuite le prime osservazioni relative al passaggio dei raggi di luce attraverso un foro e al loro viaggiare in linea retta senza mai confondersi, generando su una superficie, posta al di là del piano contenente il foro, immagini rovesciate direttamente corrispondenti alle forme degli oggetti dai quali la luce proviene.

Bellissime scientifiche finzioni

Si tratta esattamente della descrizione del principio della camera obscura (o camera oscura, detta anche camera ottica) strumento che finalmente ci porta a parlare del lavoro di Bellotto e Canaletto, noti soprattutto per le vedute di Venezia, ma attivi anche in altre città d’Italia e d’Europa visitate durante viaggi di lavoro o in alcuni casi diventate luogo di residenza (Roma, Firenze, Verona, la Lombardia, Londra, Dresda, Vienna, Monaco di Baviera, Varsavia). All’ingresso della mostra delle Gallerie d’Italia di Milano (visitabile fino al 5 marzo), il primo oggetto che ci accoglie, racchiuso entro una teca trasparente, è proprio una camera oscura portatile in legno appartenuta forse (ma secondo alcuni studiosi probabilmente no) a Canaletto. Il primo quadro della mostra, una tela di Canaletto, è il Campo Santi Giovanni e Paolo (circa 1738), di cui sono arrivati a noi anche gli schizzi preparatori (visibili in mostra su un monitor), fatti certamente con l’ausilio di una camera obscura.

Schizzi preparatori per la tela Campo Santi Giovanni e Paolo (circa 1738) di Canaletto.

Quello che colpisce a prima vista nel quadro è una precisione e un apparente realismo “di qualità fotografica”, ma un confronto diretto con quell’angolo di Venezia, tutt’oggi conservato quasi esattamente come all’epoca del dipinto, permette di scoprire che l’artista ha, sì, operato partendo da una ricognizione fatta per mezzo della camera ottica, ma ha anche arbitrariamente spostato il suo punto di osservazione tra uno schizzo e l’altro, tra una seduta di disegno e l’altra. Così facendo, ma ricomponendo con maestria più “riprese” fatte da punti di osservazione distinti, come dimostrato nel 1959 dallo storico dell’arte e massimo studioso della prospettiva Decio Gioseffi, Canaletto crea l’illusione di un punto di vista unico, più lontano, ma oggettivamente impossibile da realizzare nella pratica per la presenza di edifici al di qua del canale, il Rio dei Mendicanti, che si trova in primo piano nel quadro. Nelle parole della curatrice della mostra, Bożena Anna Kowalczyk: “un’immagine altamente sofisticata, irreale nelle proporzioni dei monumenti e nelle distanze, ma di grande bellezza.”

E qui torniamo alla domanda con cui abbiamo aperto l’articolo: per rappresentare la realtà del mondo preferiamo un pittore o un topografo, un artista o un geometra? La risposta, visti i risultati e soprattutto considerati i procedimenti e le strumentazioni utilizzate, sembra essere meno netta del previsto. Svelato il mistero dell’utilizzo “creativo” di uno strumento di conoscenza oggettiva come la camera ottica opteremmo per un tipo particolare di artista, come appunto Bellotto e Canaletto, che abbia fatta sua un’impostazione come quella qui ben descritta:

“Quelli che s’innamorano della pratica senza la scienza, sono come i nocchieri che entrano in naviglio senza timone o bussola, che mai hanno certezza dove si vadano. Sempre la pratica dev’essere edificata sopra la buona teorica, della quale la prospettiva è guida e porta, e senza questa nulla si fa bene” . Leonardo da Vinci – Trattato della Pittura, parte seconda - 77. Dell'errore di quelli che usano la pratica senza la scienza.

 

Cover: Antonio Canal, detto il Canaletto, Campo santi Giovanni e Paolo, 1738 ca, olio su tela, 46,4x78,1 cm, Londra, Royal Collection. Prestato da Sua Maestà Elisabetta II e visibile nella mostra “Bellotto e Canaletto. Lo stupore e la luce”, dal 25 novembre 2016  al 5 marzo 2017 alle Gallerie d’Italia, Piazza della Scala, Milano.