Tremonti, non tagli le gambe al neutrino!

Read time: 11 mins

Se lo è chiesto più d’uno, nelle scorse ore: a cosa serve un neutrino che viaggia a velocità superiore a quella della luce? Se lo è chiesto il Ministro dell’Economia, Giulio Tremonti, qualche mese fa: a cosa serve la conoscenza in sé, mica si mangia?

Gli esempi, davvero, non mancano per rispondere in solido a questa domanda. Restiamo al CERN di Ginevra, che non è solo il laboratorio dove lavora il gruppo di Antonio Ereditato che ha rilevato neutrini che sembrano viaggiare a velocità superiore al quella della luce, ma è il più grande laboratorio mondiale di ricerca di base. Basta allora ricordare il caso del World Wide Web, più semplicemente il web, la tecnologia informatica che è, ormai, alla base della comunicazione su internet: è nata proprio al CERN nell’ottobre 1990 a opera di un ricercatore inglese, Timothy John Berners-Lee, che non l’ha voluta neppure brevettare. L’ha regalata all’umanità. Resa completamente pubblica il 30 aprile 1993, la tecnologia web ha avuto una diffusione così rapida e capillare a livello globale da costituire un autentico record nella storia delle comunicazioni di massa.

Oppure, per restare nell’ambito della teoria della relatività che, secondo alcuni, sarebbe messa in discussione dai neutrini “più veloci della luce”, ebbene essa è nata da una curiosità astratta di Albert Einstein. Ma i sistemi GPS che ormai tutti montano sulla propria macchina non sono altro che l’applicazione tecnologica della teoria della relatività.

Quelli del web e del GPS, per quanto eccezionali, non sono certo evento unici nella storia della scienza e dell’innovazione tecnologica. Da sempre la ricerca che oggi chiamiamo curiosity-driven, diretta dalla curiosità e senza alcuna finalità se non quella di rispondere a domande di conoscenza, ha generato nuove conoscenze che hanno trovato, poi, concreta applicazione. Da sempre gli uomini di scienza sono consapevoli del fatto che la ricerca fondamentale produce inevitabilmente innovazione tecnologica. E da sempre ministri dell’economia rivolgono le medesime domande impertinenti agli scienziati. A William Gladstone, Ministro del Tesoro di Sua Maestà Britannica, che gli chiedeva a cosa mai potesse servire in pratica quello strano apparato che per induzione magnetica generava elettricità, a metà degli anni ’30 del XIX secolo l’inventore del motore elettrico, Michael Faraday, rispose: «Non lo so, sir. Ma so che un giorno voi potrete tassarlo». Fatto!

Chi si occupa di scienza sa che, per quanto inevitabile sia il processo di trasformazione della conoscenza pura in applicazione concreta, raramente il percorso e persino lo sbocco può essere previsto a priori. A un anonimo curioso che gli pose la medesima domanda di Gladstone – a che mai può servire? – Michael Faraday rispose con un’altra domanda: «A che mai può servire un bambino?». Trent’anni dopo, nel 1862 Faraday, ormai settantenne, venne accompagnato a visitare il sistema dei fari elettrici che ormai costellavano la costa inglese e fu in grado di ammirare di persona gli effetti imprevisti prodotti dalla «scintilla magnetica».

In realtà, il rapporto tra la ricerca diretta dalla curiosità e l’innovazione tecnologica è molto più complesso. E va ben oltre la trasformazione diretta della nuova conoscenza in prodotti di uso comune. Il rapporto è così stretto e l’interpenetrazione così vasta che qualcuno dice che scienza e tecnologia siano ciascuna figlia dell’altra. Il paradosso è solo apparente. Per almeno quattro motivi.

Primo: perché la scienza si sviluppa e produce nuova conoscenza (anche) quando si rendono disponibili nuove tecnologie. In questo senso possiamo dire che la scienza è figlia della tecnologia. Galileo può osservare il cielo negli ultimi mesi del 1609 e i primi del 1610 e «vedere cose mai viste prima» da essere umano perché ha a disposizione il cannocchiale. Per quanto grande e geniale fosse come scienziato, senza la nuova tecnologia messa a punto da anonimi artigiani olandesi, Galileo non avrebbe potuto realizzare quelle decisive osservazioni e compiere un’autentica rivoluzione in astronomia. Allo stesso modo, senza le nuove tecnologie che hanno consentito di costruire, presso i Laboratori che l’Istituto Nazionale di Fisica Nucleare del Gran Sasso, “nuovi occhiali” capaci di “vedere” gli elusivi neutrini Ereditato e il suo gruppo non avrebbero potuto “vedere” oggetti più veloci della luce.

Secondo: è vero anche il contrario. La tecnologia si sviluppa quando può attingere a nuove conoscenze di base. Senza gli studi di Faraday (ma anche di Volta, di Ørsted e di tanti altri) non avremmo avuto lo sviluppo dell’industria dell’elettricità. L’innovazione tecnologica è figlia della ricerca scientifica.

Terzo: la scienza fondamentale si sviluppa (anche) creando nuova tecnologia. Per mettere a punto le “sensate esperienze” – spesso per creare condizioni mai prima osservate sulla Terra – gli scienziati devono progettare strumenti nuovi, che non esistono. È il caso, sempre per restare al CERN di Ginevra, di LHC: la più grande macchina mai costruita dall’uomo. Ma potremmo fare infiniti altri esempio. Il rapporto della scienza con la nuova tecnologia è tale che secondo alcuni epistemologi non c’è scienza (non c’è nuova conoscenza) senza nuova tecnologia. La scienza genera nuova tecnologia.

Quarto: esiste un rapporto coevolutivo tra scienza e tecnologia. E questo rapporto è sempre più stretto: è ormai talmente stretto che spesso non è possibile in alcun modo separarle, anche nel caso delle scienze di base. Ne sono un esempio ormai classico le biotecnologie e, ancor più di recente, le nanotecnologie. Scienza e tecnologia nascono l’una dall’altra.

Questo rapporto complesso e intimamente interpenetrato tra la scienza – in particolare la ricerca di base – e la tecnologia è antico: esiste da sempre. Ha caratterizzato la scienza ellenistica, la scienza islamica, la nuova scienza fiorita in Europa a partire dal XVII secolo. Tuttavia oggi viviamo in una nuova fase di questa relazione. Dopo la seconda guerra mondiale il rapporto tra ricerca di base e innovazione tecnologica si è modificato in maniera strutturale: è diventato sistematico. Di più. È diventato non una, ma “la” leva della ricchezza nella gran parte dei paesi a economia avanzata e, da qualche anno, anche dei paesi a economia emergente.

Tant’è che tutti gli tutte gli stati a economia matura e, da vent’anni, a economia emergente investono anche in ricerca di base per promuovere lo sviluppo economico attraverso l’innovazione tecnologica. Tutti tranne, l’Italia, unico paese che si ostina a perseguire uno «sviluppo senza ricerca». E, non a caso, paese che da vent’anni è fermo o corre meno degli altri.

Le ragioni principali per cui lo stato (un qualsiasi stato) deve investire in ricerca di base sono – secondo Erich Bloch, che è stato direttore della National Science Foundation – almeno tre: per il valore culturale in sé della produzione di nuova conoscenza; perché lo stato ha bisogno di nuove tecnologie per realizzare obiettivi specifici di interesse generale, come aumentare la capacità di difesa o migliorare la salute dei propri cittadini; perché l’economia richiede investimenti in ricerca ormai di tale portata che solo gli stati, in alcuni settori, hanno la possibilità di realizzarla e l’incentivo a farlo.

Non si tratta di ragioni astratte. Si calcola che nei quarant’anni successivi al rapporto con cui Vannevar Bush, il consigliere scientifico del presidente Roosevelt, teorizza l’intervento dello stato nel settore della ricerca oltre la metà dell’aumento di produttività del sistema economico americano sia da attribuirsi all’introduzione delle nuove tecnologie prodotte sulla base delle nuove conoscenze scientifiche. Gli investimenti in ricerca hanno fruttato più degli investimenti di capitale, degli investimenti nella formazione o della messa a punto di economie di scala.

In realtà è difficile stabilire, in termini quantitativi, quale sia il ritorno economico preciso degli investimenti in ricerca di base. La cifra dipende da molti parametri (chi investe, quali scopi si prefigge, il settore di investimento). Spesso la nuova conoscenza è catalogata tra i fattori non economici dell’economia e il suo ritorno economico non viene valutato. Ancora più spesso la ricerca di base produce “beni pubblici”, che per loro natura sono “non escludibili” e “non rivali”: è difficile appropriarsene, mentre la loro condivisione produce un beneficio per tutti. Infine, gli effetti economici della ricerca di base sono di lungo periodo, indiretti e imprevedibili a priori (ma la vicenda del web e infinite altre storie ci dicono che talvolta gli effetti possono essere repentini e diretti).

Mentre gli analisti concordano che, a livello qualitativo, gli investimenti in ricerca di base ottengono almeno sei diversi effetti economici e sociali.

1. Nuove informazioni utili. La ricerca di base genera nuova conoscenza, che è alla base dei processi di innovazione. La nuova conoscenza è costosa da produrre, ma è un “bene pubblico”, difficilmente appropriabile, può essere usata e trasmessa senza costi. In questo senso la conoscenza prodotta dalla ricerca di base è la matrice dei processi di innovazione.

2. Nuovi strumenti e nuove tecnologie. La ricerca di base produce nuovi strumenti, nuove tecnologie e nuovi processi per ottenere strumenti già in uso. La risonanza magnetica nucleare è nata dalla ricerca di un gruppo di fisici ad Harvard che stavano cercando di misurare il momento magnetico dei nuclei.

3. Lavoratori qualificati. La ricerca di base, che in genere si svolge nelle università e nei centri pubblici di ricerca, favorisce la formazione di lavoratori altamente qualificati. Sia direttamente – formando ricercatori che, almeno in parte, andranno a lavorare nelle imprese; sia indirettamente: l’alta educazione si svolge nelle università.

4. Reti professionali. I laboratori di ricerca di base sono la cuspide e il punto di riferimento di una rete di professionalità che si estende alle imprese e alla società.

5. Soluzione di problemi tecnologici. I laboratori di ricerca di base sono altrettante palestre dove si allenano persone capaci di risolvere problemi tecnologici. Portare l’uomo sulla Luna, da questo punto di vista, ha consentito di allenare migliaia di persone a risolvere problemi tecnologici innovativi. La costruzione di un acceleratore di particelle come LHC costituisce una palestra per allenare persone a risolvere problemi tecnici in campi in apparenza lontani dagli obiettivi di ricerca, come la realizzazione e la gestione di grandi magneti superconduttori.

6. Creazione di nuove imprese. La ricerca di base favorisce la creazione di nuove imprese nel settore dell’alta tecnologia. Gli Stati Uniti sono costellati di imprese, soprattutto nel settore informatico e biotecnologici, nate su impulso di scienziati formatisi in laboratori pubblici e diventati imprenditori. Ma non è solo negli Usa. Una delle più grandi aziende al mondo nel settore della spettrometria di massa per uso medico, la Varian Techtron, è nata direttamente su impulso di CSIRO, i centri pubblici di ricerca dell’Australia.

C’è un’impronta pubblica innegabile nello sviluppo della ricerca di base. In genere sono gli stati che la alimentano. E senza l’intervento pubblico, raramente nasce e si sviluppa. Ci sono diverse ipotesi messe in campo per spiegare questo fenomeno storicamente provato. Una è quella del “fallimento del mercato”: che sarebbe capace come pochi altri mezzi di favorire lo sviluppo economico locale, ma risulta incapace di prevedere e progettare nel lungo periodo. Altre teorie guardano oltre la teoria economica classica, e guardano all’innovazione tecnologica come a un processo evolutivo, che procede in maniera non lineare per adattamento e selezione naturale, sulla base di fattori economici e non economici.

Come che sia è innegabile che, storicamente, la ricerca di base si sviluppa soprattutto attraverso l’intervento dello stato. E che la massima creatività scientifica si registra nei laboratori pubblici. Secondo Marcia Angell, che ha diretto a lungo il New England Journal of Medicine, il 90% dei nuovi principi attivi messi in commercio negli Stati Uniti è stato scoperto in laboratori pubblici, nonostante che le imprese private investano nella ricerca farmacologica una quantità di risorse molto più grande di quanto non faccia lo stato. Il motivo è che nei laboratori pubblici gli scienziati sono sottoposti a minori pressioni e la loro creatività è più libera di esprimersi. Il sostegno pubblico alla ricerca è dunque necessario non solo per sopperire alle incapacità del mercato, ma per la natura stessa delle relazioni interne alla comunità scientifica, al modo con cui la scienza si sviluppa, al ruolo tradizionale delle università nella scienza.

Certo, il rapporto tra invenzione e innovazione è molto più complesso di un percorso lineare che dalla scoperta porta alla vendita di un nuovo prodotto. Molti analisti consigliano di prendere in considerazione non solo università e imprese, ma un intero “sistema di innovazione”, cui partecipano anche attori sociali – al limite, l’intera società – che sono fuori dai centri di ricerca e dai centri di produzione. E, in quest’ottica, vedono addirittura una “terza missione” per l’università: diffondere la conoscenza scientifica nella società per creare un ambiente adatto all’innovazione.

Nell’ottica dunque di un sistema esteso e complesso dell’innovazione e alla luce del fenomeno rilevato da Marcia Angell è generale, è difficile immaginare di sostituire allo stato un altro investitore efficiente in ricerca di base.

In ogni caso è difficile sottostimare l’importanza che la ricerca di base ha nello sviluppo dell’economia. D’altra parte, quasi tutti i paesi a economia sviluppata, dopo la Seconda guerra mondiale, hanno investito risorse umane ed economiche considerevoli nella ricerca accademica o comunque curiosity-driven. Poche le eccezioni. Il Giappone, per esempio, che ha puntato essenzialmente sulla ricerca applicata e lo sviluppo tecnologico. Ma da almeno un decennio il governo nipponico ha deciso di aumentare drasticamente gli investimenti in ricerca di base, attribuendo proprio alla carenza di creatività scientifica di base la perdita di dinamismo della propria economia.

Più di recente, le nuove potenze scientifiche emergenti – come la Cina, l’India, il Brasile – stanno cercando di creare, accanto a un forte comparto di ricerca applicata e di sviluppo tecnologico finanziato soprattutto da imprese straniere, un rilevante settore di ricerca accademica e fondamentale. Questi paesi stanno compiendo il più formidabile “salto di rana” che potessero immaginare per cercare di recuperare il gap e competere alla pari con i paesi di antica industrializzazione: hanno capito che non solo non c’è sviluppo senza ricerca. Ma che non c’è sviluppo senza ricerca di base.

In definitiva: è dimostrato anche che la ricerca di base si sviluppa soprattutto attraverso l’intervento dello stato. E che la massima creatività scientifica si esprime nei laboratori pubblici. In Italia, purtroppo, manca da mezzo secolo almeno una politica industriale che si fondi sul finanziamento della ricerca. E negli ultimi anni siamo addirittura in una fase di tagli sistematici. Ancora una volta c’è da chiedersi se non sia questa non una delle cause, ma “la” causa del declino del paese.

Tagliare le gambe al neutrino che (forse) corre più veloce della luce non conviene. Ministro Tremonti, un giorno lei tasserà le ricadute di quella corsa.

Aggiungi un commento

Canaletto e Bellotto: pittori o geometri?

Read time: 9 mins
Canaletto, Campo Santi Giovanni e Paolo, 1738 circa.

Dovendo scegliere tra un pittore e un topografo, a chi affidereste il compito di rappresentare realisticamente ed efficacemente un determinato paesaggio, urbano o rurale? Ipotizziamo che decidiate di affidare il lavoro a un artista con cui pattuite l’esecuzione di un dipinto a olio su tela. E se l’artista che avete incaricato facesse uso di mezzi tecnici, ad esempio di apparecchiature ottiche, in un certo senso invadendo il campo e appropriandosi dei trucchi del mestiere e delle competenze della concorrenza? Denuncereste la violazione del patto - non scritto - che ha stipulato con voi e lo giudichereste un artista che bara o addirittura un artista dimezzato?

È questo il dubbio che devono essersi posti, già nella prima metà del Settecento, Antonio Canal, detto Canaletto e suo nipote Bernardo Bellotto (pure lui per un certo periodo noto come Canaletto, diciamo per mere ragioni di marketing). I due, infatti, il primo essendo maestro del secondo, fecero ampio e documentato uso di un’apparecchiatura ottica nota come camera obscura senza peraltro mai molto sbandierare questo loro “segreto industriale”: la utilizzarono costantemente come sussidio per tracciare con sicurezza le linee portanti dei volumi dei loro dipinti e le sagome dei monumenti e degli edifici che hanno rappresentato negli affascinanti dipinti a olio presenti in musei, gallerie e collezioni di enti e di privati in tutto il mondo. Sono stati, Canaletto e Bellotto, tra i primi e certamente i più noti esponenti del cosiddetto vedutismo, genere pittorico nato a Venezia nel primo Settecento. Molti loro schizzi (“scaraboti”) e disegni preparatori, a matita e penna su carta, sono arrivati fino a noi e sono conservati, raccolti in quaderni, in vari musei, tra cui le Gallerie dell’Accademia a Venezia.

La camera oscura portatile in legno appartenuta secondo alcuni studiosi a Canaletto. Si può vederla all'ingresso della mostra “Bellotto e Canaletto. Lo stupore e la luce”, alle Gallerie d’Italia in Piazza della Scala a Milano.

Come porsi, dunque, di fronte alla legittimità e opportunità dell’uso intensivo della camera obscura da parte di quei pittori? Si tratta semplicemente di un utile strumento ausiliario o è invece una criticabile pratica tecnica che, se applicata in modo pedissequo nella realizzazione dei dipinti, minaccia di ostacolare e compromettere la creazione artistica, esponendo così il pittore al rischio di vedersi relegato nell’angusto e sgradito ruolo esecutivo di “geometra dell’ufficio tecnico”?

Per rispondere a questa domanda, serve forse chiedersi perché  alcuni pittori, soprattutto settecenteschi, abbiano sentito l’esigenza di utilizzare la camera obscura, o camera ottica. La risposta molto probabilmente va cercata nel clima culturale dell’epoca di cui stiamo parlando: con l’Illuminismo, infatti, si impone un nuovo sguardo sulla realtà, più oggettivo, più scientifico e l’esattezza della rappresentazione pittorica del paesaggio è solo uno dei campi in cui questa nuova visione del mondo si manifesta.

Questa tematica complessa, di cui cercheremo di fornire qualche utile elemento di conoscenza e di riflessione, colpisce immediatamente il visitatore della bella mostra “Bellotto e Canaletto. Lo stupore e la luce”, alle Gallerie d’Italia in Piazza della Scala a Milano. Nelle quasi cento opere in mostra si possono ammirare le precise rappresentazioni (quanto precise effettivamente siano, tra poco lo scopriremo) di palazzi e canali, campi (nel senso veneziano della parola) e piazze di città del centro Europa, campagne e scorci di ruderi dell’antichità talmente dettagliate da sembrare fotografie, il tutto sempre sapientemente illuminato da luci oblique e radenti, perfettamente adatte a scolpire la tridimensionalità degli edifici. Per meglio comprendere il senso di queste immagini si rende necessario, però, un salto indietro nella storia della scienza e della tecnica.

La conquista della prospettiva

Nel corso degli ultimi tre millenni, non sono mancati studi teorici e sperimentazioni pratiche per cercare di risolvere un problema, sia concettuale, sia concreto: quello della rappresentazione della realtà tridimensionale su una superficie piana, bidimensionale. Problema che stava a cuore a due categorie apparentemente assai distanti tra loro di esseri umani: i matematici e i pittori, vale a dire, in un senso più ampio, gli scienziati e gli artisti.

Precisiamo, per quanto possa sembrare a questo punto scontato, che stiamo parlando di “prospettiva” e di “geometria proiettiva”. Nelle prime testimonianze visive arrivate fino a noi, quelle raffiguranti scene di caccia rinvenute nei dipinti rupestri delle grotte paleolitiche, i nostri antenati non sembrano essere stati sfiorati dal desiderio di suggerire un senso di profondità alle loro immagini. Occorre quindi fare un balzo temporale in avanti di parecchi millenni per vedere qualche tentativo di rappresentazione prospettica del reale: in qualche disegno di epoca egizia, duemila anni prima di Cristo, appaiono molto timidamente i concetti della similitudine e della prospettiva, con edifici rappresentati in pianta e alzato, per quanto, a dire il vero, la maggior parte delle immagini egizie giunte fino a noi raffigurino piuttosto una realtà prevalentemente bidimensionale (di profilo). Nemmeno l’epoca della cultura Assiro Babilonese sembra sentire l’urgenza di descrivere un mondo a tre dimensioni e, ad esempio, i bassorilievi di leoni e altri animali presenti sulle pareti della Porta di Ishtar (sec. VI a.C.), conservata al Pergamon Museum di Berlino, ci appaiono nella loro fissità, isolate e di profilo su uno sfondo uniforme, privo di profondità. In estremo oriente la prospettiva, almeno a livello di studi teorici, sembra far capolino solamente in un trattato cinese per la determinazione delle ombre del IV secolo a.C., ma risalente secondo alcuni storici addirittura al 1100 a.C.

Ma è solo con i grandi matematici greci che inizia uno studio rigoroso delle regole di rappresentazione geometrica dello spazio. Spicca tra tutti il nome di Euclide, vissuto ad Alessandria (allora una colonia greca) a cavallo tra quarto e terzo secolo a.C., noto per la sua imponente opera Elementi grazie alla quale è passato alla storia della matematica.  Nell’Ottica, suo meno noto trattato, Euclide pone invece le fondamenta della geometria descrittiva, chiamata poi, a partire dal diciannovesimo secolo, “geometria proiettiva”.

Proseguendo nella nostra carrellata storica, la civiltà romana sembra da un lato orientata alla sperimentazione pittorica, dall’altro lato alla teorizzazione. Sul versante pratico, attraverso dipinti e mosaici (ad esempio nel mosaico pompeiano di Alessandro alla battaglia di Isso), si assiste alla rappresentazione della tridimensionalità, pur essendo chiaro che non era ancora maturata una consapevolezza precisa delle regole della convergenza verso un unico punto. Dall’altro lato, quello più teorico, attraverso gli scritti di Vitruvio (architetto e scrittore del primo secolo a.C.) si approfondiscono i problemi legati alla scenografia e alla rappresentazione degli edifici.

Il più antico disegno pubblicato noto di una camera oscura si trova nel trattato "De Radio Astronomica et Geometrica" (1545) del medico, matematico e costruttore di strumenti olandese Gemma Frisius (nato Jemme Reinerszoon), in cui l'autore descrive ed illustra come ha usato la camera oscura per studiare l'eclissi solare del 24 gennaio 1544.

Prima di arrivare al Rinascimento italiano, nel XIV secolo, durante il quale architetti/pittori/matematici, da Filippo Brunelleschi a Leon Battista Alberti e da Piero della Francesca fino a Leonardo da Vinci, applicando rigorosi metodi matematici hanno definito in maniera fino ad allora sconosciuta le regole della prospettiva, è necessario menzionare altri studiosi medievali che li hanno preceduti. Tra questi vale la pena ricordare in particolar modo lo scienziato/filosofo arabo Al-Kindi (IX secolo) e soprattutto  il matematico, fisico, medico e filosofo Alhazen (XI secolo), nato a Bassora ma trasferitosi presto al Cairo. A quest’ultimo, autore del trattato in sette volumi sull’Ottica Kitab al-Manazir, tradotto in latino da Gherardo da Cremona nella seconda metà del XII secolo, sono attribuite le prime osservazioni relative al passaggio dei raggi di luce attraverso un foro e al loro viaggiare in linea retta senza mai confondersi, generando su una superficie, posta al di là del piano contenente il foro, immagini rovesciate direttamente corrispondenti alle forme degli oggetti dai quali la luce proviene.

Bellissime scientifiche finzioni

Si tratta esattamente della descrizione del principio della camera obscura (o camera oscura, detta anche camera ottica) strumento che finalmente ci porta a parlare del lavoro di Bellotto e Canaletto, noti soprattutto per le vedute di Venezia, ma attivi anche in altre città d’Italia e d’Europa visitate durante viaggi di lavoro o in alcuni casi diventate luogo di residenza (Roma, Firenze, Verona, la Lombardia, Londra, Dresda, Vienna, Monaco di Baviera, Varsavia). All’ingresso della mostra delle Gallerie d’Italia di Milano (visitabile fino al 5 marzo), il primo oggetto che ci accoglie, racchiuso entro una teca trasparente, è proprio una camera oscura portatile in legno appartenuta forse (ma secondo alcuni studiosi probabilmente no) a Canaletto. Il primo quadro della mostra, una tela di Canaletto, è il Campo Santi Giovanni e Paolo (circa 1738), di cui sono arrivati a noi anche gli schizzi preparatori (visibili in mostra su un monitor), fatti certamente con l’ausilio di una camera obscura.

Schizzi preparatori per la tela Campo Santi Giovanni e Paolo (circa 1738) di Canaletto.

Quello che colpisce a prima vista nel quadro è una precisione e un apparente realismo “di qualità fotografica”, ma un confronto diretto con quell’angolo di Venezia, tutt’oggi conservato quasi esattamente come all’epoca del dipinto, permette di scoprire che l’artista ha, sì, operato partendo da una ricognizione fatta per mezzo della camera ottica, ma ha anche arbitrariamente spostato il suo punto di osservazione tra uno schizzo e l’altro, tra una seduta di disegno e l’altra. Così facendo, ma ricomponendo con maestria più “riprese” fatte da punti di osservazione distinti, come dimostrato nel 1959 dallo storico dell’arte e massimo studioso della prospettiva Decio Gioseffi, Canaletto crea l’illusione di un punto di vista unico, più lontano, ma oggettivamente impossibile da realizzare nella pratica per la presenza di edifici al di qua del canale, il Rio dei Mendicanti, che si trova in primo piano nel quadro. Nelle parole della curatrice della mostra, Bożena Anna Kowalczyk: “un’immagine altamente sofisticata, irreale nelle proporzioni dei monumenti e nelle distanze, ma di grande bellezza.”

E qui torniamo alla domanda con cui abbiamo aperto l’articolo: per rappresentare la realtà del mondo preferiamo un pittore o un topografo, un artista o un geometra? La risposta, visti i risultati e soprattutto considerati i procedimenti e le strumentazioni utilizzate, sembra essere meno netta del previsto. Svelato il mistero dell’utilizzo “creativo” di uno strumento di conoscenza oggettiva come la camera ottica opteremmo per un tipo particolare di artista, come appunto Bellotto e Canaletto, che abbia fatta sua un’impostazione come quella qui ben descritta:

“Quelli che s’innamorano della pratica senza la scienza, sono come i nocchieri che entrano in naviglio senza timone o bussola, che mai hanno certezza dove si vadano. Sempre la pratica dev’essere edificata sopra la buona teorica, della quale la prospettiva è guida e porta, e senza questa nulla si fa bene” . Leonardo da Vinci – Trattato della Pittura, parte seconda - 77. Dell'errore di quelli che usano la pratica senza la scienza.

 

Cover: Antonio Canal, detto il Canaletto, Campo santi Giovanni e Paolo, 1738 ca, olio su tela, 46,4x78,1 cm, Londra, Royal Collection. Prestato da Sua Maestà Elisabetta II e visibile nella mostra “Bellotto e Canaletto. Lo stupore e la luce”, dal 25 novembre 2016  al 5 marzo 2017 alle Gallerie d’Italia, Piazza della Scala, Milano.