Meno dati e più intelligenza

Read time: 5 mins

In un diagramma pubblicato nel 1970 che mostra la distribuzione delle pulsar nella Galassia, si contano  una  cinquantina  di punti. Sempre nello stesso anno, un articolo sull’identificazione ottica delle sorgenti X ne discute una manciata: tutte quelle note all’epoca. Confrontando  lo stato dell’astronomia di quarant’anni fa con quello attuale, colpisce soprattutto  la spaventosa  quantità  di dati che siamo andati accumulando a ritmi sempre più frenetici. Surveys di grandi aree di cielo, se non di tutto il cielo, con risoluzione angolare e sensibilità sempre maggiori, e condotte nelle principali bande elettromagnetiche, hanno prodotto un’enorme mole di dati che è lungi dall’essere stata pienamente analizzata e utilizzata. Progetti da poco operativi o in corso di realizzazione continuano a sfornare e sforneranno, byte dopo byte, pixel dopo pixel, i numeri dell’Universo. La preoccupazione è che lo sforzo per acquisire nuovi dati superi quello volto a estrarre dai dati stessi tutte le informazioni che questi contengono. È una preoccupazione che maturai alcuni anni fa a seguito di una visita medica, che mi aveva portato a riflettere su quanto fosse pervasivo l’approccio del “we need more data” come soluzione prediletta per risolvere i dubbi e aumentare le nostre conoscenze.

“We need more data”: una tendenza dei nostri tempi

Anni or sono, un persistente dolore alla spalla mi convinse a recarmi dal medico di base per un controllo. Dopo una breve attesa mi trovai a esporre i miei sintomi a una persona estremamente cortese che mi chiese molte cose, tranne di spogliarmi e mostrarle la parte dolorante.

Se avessi avuto un chiodo conficcato nella spalla non se ne sarebbe accorta. Non me l’ha guardata, non me l’ha toccata, non mi ha chiesto di eseguire particolari movimenti. Non ha reputato necessario, o anche solo utile, sapere se fosse rossa o blu, gonfia o meno. Si limitò a prescrivermi una radiografia: more data. Tornato circa una settimana dopo con l’esito – per fortuna negativo  – della radiografia, la scena si ripeté, simile ma più rapida, e si concluse con la prescrizione di un altro esame specialistico: un’ecografia. Di nuovo more data. La diagnosi me la fece il tecnico che eseguì l’ecografia: borsite. Questa persona squisita, con chiara esperienza pluriennale nel campo, mi suggerì anche la terapia: «Aspetti che le passi». Aspettai e dopo qualche mese il dolore passò.

Ho  l’impressione che  questo  approccio, quello cioè di voler disporre dei risultati di estesi esami specialistici prima di esprimere una diagnosi, si vada radicando, almeno a giudicare dalla quantità di analisi che vengono prescritte in prima battuta, in seguito alla  manifestazione  di qualche  malessere anche leggero e generico. Spesso a scapito di un momento di riflessione e dell’applicazione  di quel teorema  di Bayes che i  vecchi medici condotti utilizzavano  – senza  probabilmente  saperlo – quando  formulavano la loro diagnosi basandosi sugli elementi immediatamente  e direttamente acquisibili.  Ma il voler ricorrere a nuovi dati senza aver estratto da quelli disponibili tutto il possibile non è solamente un problema dei medici.

Usare meglio i dati già disponibili

Grazie a strumentazioni sempre più raffinate e all’aumento dei telescopi operativi, la quantità   di  informazioni  disponibile agli  addetti  ai lavori  raddoppia  ogni dodici mesi circa. Inoltre, mentre una volta i dati acquisiti rimanevano quasi sempre di esclusiva proprietà del gruppo che li aveva ottenuti, da diversi anni è sempre più comune che i nuovi dati finiscano in un archivio accessibile a tutti i ricercatori interessati (solitamente dopo un anno o poco più, periodo in cui è garantito l’uso esclusivo ai proprietari).

Ciò nonostante, la fame di nuove osservazioni è sempre altissima:  per esempio, le richieste ai telescopi superano (e di molto) il tempo disponibile. Tanto che le singole proposte  di  osservazione  sono  avanzate da gruppi numerosi e per programmi che richiedono molte centinaia di ore di osservazione. Non parliamo poi dei progetti per costruire nuova strumentazione da utilizzare a terra o nello spazio. La mia impressione è che sempre più frequentemente l’acquisizione di nuovi dati stia diventando la scorciatoia (ma non lo è in termini di costi o di tempo) per avvicinarsi alla soluzione di un problema. A mio avviso  si tratta  di un’illusoria alternativa al più faticoso lavoro di analisi dei dati noti, che reca in sé la responsabilità di produrre una “diagnosi”. La richiesta di nuovi dati rischia di diventare un’alternativa al pensare, allo spremere da quelli già a disposizione le informazioni che contengono. Questa mia idea è convalidata  dalle sempre più numerose ricerche d’archivio che vengono proposte; ricerche che per l’appunto utilizzano dati “vecchi” per affrontare problematiche scientifiche diverse da quelle per cui erano stati originariamente – e da altri – acquisiti.

Osservatori astronomici virtuali

Per sfruttare al meglio queste possibilità e semplificare l’accesso alle enormi quantità di dati disponibili nei vari enti di ricerca, sono stati sviluppati a livello mondiale osservatori  astronomici virtuali  (vedi per esempio http://www.usvao.org/ e anche http://www.euro-vo.org/pub/). 

La considerazione di base è che la quantità di dati raddoppia ogni anno, mentre la potenza di calcolo e la velocità della rete raddoppiano rispettivamente “solo” ogni 18 e 20 mesi. Basandosi sul sistema del Grid computing,  il progetto  di un osservatorio virtuale si propone di lasciare i dati dove sono (negli archivi dell’ESO, dell’ESA, della NASA e così via), e di distribuire l’elaborazione dei dati soltanto per trasferire i risultati dell’analisi. Questo tipo di approccio ha l’obiettivo di sviluppare strumenti che permettano una reale inter-operabilità dei vari archivi, con la capacità di macinare enormi quantità di dati in tempi contenuti. In questo modo si può continuare a espandere le conoscenze utilizzando osservazioni già a disposizione della comunità. 

Chiudo con una provocazione. Se la crisi e la contrazione generale delle risorse disponibili ci costringono a “chiudere” telescopi e laboratori, a rimandare la costruzione di grandi facilities o a prendere addirittura  in considerazione la possibilità di cancellare progetti avviati,  non strappiamoci le vesti né cambiamo lavoro. Utilizziamo piuttosto quanto già abbiamo. Scommetto che l’astronomia farebbe comunque grandi passi in avanti. Perché ci metteremmo tutti a pensare di più.

Fonte: "Le Stelle" - n°101, dicembre 2011

altri articoli

Le notizie di scienza della settimana #104

Il biologo molecolare russo Denis Rebrikov ha dichiarato che ha intenzione di impiantare nell'utero di una donna embrioni geneticamente modificati con la tecnica CRIPSR entro la fine dell'anno. L'obiettivo sarebbe quello di prevenire che la madre, colpita da una forma di HIV resistente ai farmaci antiretrovirali, trasmetta il virus ai propri figli. Per farlo, Rebrikov userebbe la tecnica CRISPR-Cas9 per disattivare il gene CCR5, in modo simile a quanto fatto dallo scienziato cinese He Jiankui che lo scorso novembre aveva annunciato di essere stato il primo a far nascere una coppia di gemelle con questo procedimento (He voleva però evitare la trasmissione del virus dell'HIV dal padre alle figlie). La legislazione russa proibisce l'editing del genoma umano in senso generale, ma la legge sulla fertilizzazione in vitro non vi fa esplicito riferimento, e dunque Rebrikov potrebbe trovarsi di fronte un vuoto normativo che conta di colmare chiedendo l'autorizzazione di una serie di agenzie governative, a partire dal Ministero della salute. Scienziati ed esperti di bioetica si dicono preoccupati. La tecnologia non è ancora matura, motivo per cui qualche mese fa un gruppo di importanti ricercatori del campo avevano chiesto di mettere a punto una moratoria sul suo utilizzo in embrioni destinati all'impianto in utero. Non è chiaro poi se i rischi superino i benefici. In primo luogo, la disattivazione del gene CCR5 protegge dalla trasmissione del virus dell'HIV nel 90% dei casi. In secondo luogo, il rischio di mutazioni off-target e on-target indesiderate è ancora molto alto. Rebrikov sostiene che la sua tecnica ne riduca drasticamente la frequenza, ma finora non ha pubblicato alcuno studio scientifico che lo dimostri. Nell'immagine: lo sviluppo di embrioni umani geneticamente modificati con la tecnica CRISPR per correggere una mutazione responsabile della cardiomiopatia ipertrofica (lo studio, condotto nel laboratorio di Shoukhrat Mitalipov presso la Oregon Science and Health University di Portland, risale al 2017 ed è stato pubblicato su Nature). Credit: Oregon Science and Health University. Licenza: OHSU photos usage

Dove finisce la plastica dei ricchi?

Ogni anno gli Stati Uniti producono 34,5 milioni di tonnellate di rifiuti di plastica. 1 milione di tonnellate vengono spedite fuori dal continente. Fino a qualche anno fa la maggior parte veniva spedita in Cina e Hong Kong, ma nel 2017 la Cina ha chiuso le porte a questo tipo di importazioni, autorizzando solo l'arrivo della plastica più pulita e dunque più facile da riciclare.