newsletter finesettimana #4
logo Scienza in rete finesettimana #4
9 ottobre 2020
a cura di Chiara Sabelli
Buon venerdì,
questa settimana leggiamo dei Nobel assegnati per la medicina, la fisica e la chimica, di quello che abbiamo imparato finora sull'evoluzione di un caso moderato di infezione da coronavirus, del paragone tra industria dei social media e del tabacco e di quasi 16 mila casi mancanti nel Regno Unito a causa di un foglio di calcolo Excel con un numero di colonne limitato. L'approfondimento di questa settimana riguarda l'impiego dei supercomputer nel contrasto alla pandemia in corso, dalla simulazione del moto delle particelle di saliva emesse da uno starnuto, alle previsioni epidemiologiche fino alla scoperta o al riposizionamento di farmaci utili nel trattamento della COVID-19.
Buona lettura e al prossimo venerdì (per segnalare questa newsletter agli amici ecco il link per l'iscrizione )

SEI PEZZI BELLI
1 Premio Nobel per la chimica alle scienziate di CRISPR
Il premio Nobel per la chimica è stato assegnato alla francese Emmanuelle Charpentier e all'americana Jennifer Doudna per le "forbici molecolari". L'Accademia svedese ha premiato le due ricercatrici per lo sviluppo del sistema universale di editing del genoma Crispr-Cas9 [Le Monde]

2 Il Nobel per la fisica ai buchi neri
Al fisico matematico inglese Roger Penrose è andato metà del premio per il suo articolo del 1965 che mostrava che "la formazione dei buchi neri è una robusta previsione della teoria generale della relatività". L'altra metà del premio è condivisa dagli astrofisici Reinhard Genzel e Andrea Ghez, per le osservazioni rivoluzionarie di stelle in orbita attorno al centro della Via Lattea che hanno suggerito che un oggetto supermassiccio, invisibile e compatto dovesse risiedere lì [Quanta Magazine]

3 Il Nobel per la medicina è andato a tre scienziati che hanno scoperto insieme l'epatite C
Harvey J. Alter, Michael Houghton e Charles M. Rice "hanno reso possibili esami del sangue e nuovi farmaci che hanno salvato milioni di vite", ha dichiarato l'Assemblea svedese delle scienze. Prima della scoperta del virus dell'epatite C nessuno sapeva perché molte persone che ricevevano trasfusioni di sangue sviluppassero epatite cronica. Alter ipotizzò che un virus allora sconosciuto potesse essere la causa principale della patologia, mentre Houghton isolò il genoma del virus. Rice fornì poi la prova finale che il virus dell'epatite C è in grado di causare da solo l'epatite [Vox]

4 Una rappresentazione grafica del corso di un'infezione da SARS-CoV-2
La grande quantità di dati ormai disponibile ha permesso agli scienziati di ricostruire l'evoluzione di un caso sintomatico di infezione da coronavirus. Dall'esposizione, all'insorgere dei sintomi, fino alla guarigione, come cambia la carica virale? Quando raggiunge il suo picco? Qual è la finestra di tempo più opportuna per effettuare i diversi tipi di test? E qual è l'effetto di mascherine e distanziamento sociale? Un riassunto grafico di quello che abbiamo imparato fin qui [The New York Times]

5 Per regolare i social media prendiamo esempio dall'industria del tabacco
Tim Kendall, ex dirigente di Facebook, ha paragonato i social media all'industria del tabacco in una testimonianza difronte al Congresso. In particolare Kendall ha detto che entrambi si sono impegnati per aumentare la dipendenza dei loro clienti. Favorire la diffusione di disinformazione, teorie cospirazioniste e fake news può essere paragonato all'impiego di sostanze chimiche come i broncodilatatori che permettono al fumo di raggiungere più facilmente i polmoni. Nella lotta alla dipendenza dal tabacco è stato cruciale limitare i luoghi in cui è legale fumare, nello stesso modo i social media dovrebbero fare in modo che contenuti ingannevoli raggiungano il minor numero di persone possibile [MIT Technology Review]

6 La debacle di Excel
Sono 15 841 i casi mancanti nella settimana tra il 25 settembre e il 2 ottobre nel Regno Unito che sono stati comunicati solo successivamente. La responsabilità è di un foglio di calcolo Excel usato per tracciare il numero di casi positivi e che ha un numero limitato di colonne, 16 384. Quando il numero di nuovi casi ha superato questo limite il file non li ha più conteggiati [BBC]


SUPERCOMPUTER CONTRO LA PANDEMIA
Lunedì i CDC hanno aggiornato le linee guida sulla pandemia includendo gli aerosol tra i possibili veicoli di trasmissione del virus. Gli aerosol sono le particelle più piccole emesse dal naso e dalla bocca di una persona quando starnutisce, tossisce o parla, e hanno un diametro da qualche decimo di micrometro a dieci micrometri. Queste particelle sono più leggere dei cosiddetti droplet, che hanno diametri superiori fino a qualche centinaio di micrometri, e dunque non sono attirati immediatamente a terra dalla forza di gravità ma possono rimanere in movimento nell'aria per lunghi periodi. La loro dinamica è particolarmente importante per valutare il rischio di contagio in ambienti chiusi, in cui il ricambio dell'aria è limitato.

L'aggiornamento delle linee guida dei CDC arriva tre giorni dopo la notizia che Donald Trump è risultato positivo al SARS-CoV-2 e a quattro giorni dal primo confronto tra Trump e Biden in vista delle elezioni presidenziali del 3 novembre prossimo. Biden e Trump si sono scontrati in un dibattito trasmesso in diretta televisiva durato oltre un'ora e mezza in cui hanno parlato da podi distanziati di circa due metri. L'allestimento del dibattito televisivo ha spinto molti a chiedersi se Biden è stato esposto a un rischio di contagio concreto.

Tra i modi per capire come droplet e aerosol circolano nell'aria ci sono i modelli computazionali. Già ad aprile un gruppo di scienziati del Kyoto Institute of Technology aveva mostrato che la distanza di sicurezza dovrebbe essere maggiore di 1 metro (meglio 2 metri) per evitare di essere investiti dagli aerosol. Sempre la simulazione della dispersione di queste particelle nell'aria, ha permesso, poche settimane fa, al supercomputer giapponese Fugaku di concludere che le visiere sono sostanzialmente inutili a contenere la diffusione dei droplet (un risultato confermato di recente anche da un altro studio con un approccio diverso, ovvero la visualizzazione in laboratorio tramite laser del movimento di queste goccioline nell'aria dopo uno starnuto). A fine agosto, sempre Fugaku aveva stabilito che le mascherine in polipropilene sono più efficaci di quelle in tessuto.

Il supercomputer Fugaku è ospitato dal RIKEN Center for Computational Science a Kobe ed è stato sviluppato in collaborazione con Fujitsu. È oggi il computer più potente al mondo, capace di eseguire 415,5 milioni di miliardi di operazioni al secondo (si dice che la sua potenza di calcolo è di 415,5 petaflops), quasi trenta volte più veloce del secondo più potente supercomputer del mondo, il Summit di IBM. Per avere un'idea di cosa vogliano dire questi numeri, basti pensare che un processore presente in un personal computer può arrivare a qualche centinaio di gigaflops, ovvero un milione di volte meno potente di un supercomputer. L'inizio delle attività di Fugaku era previsto per il 2021, ma ad aprile di quest'anno il centro ha annunciato che avrebbe messo a disposizione parte della sua capacità computazionale per progetti di ricerca su SARS-CoV-2 e COVID-19. Lunedì NVIDIA ha annunciato che sta costruendo nel Regno Unito il più potente supercomputer del mondo che aiuterà i ricercatori ad affrontare domande difficili in campo medico, in particolare riguardo COVID-19. Insomma, le piattaforme di high performance computing sono considerate uno strumento cruciale per contrastare con la ricerca scientifica l'avanzata di questa nuova malattia. I loro impieghi sono infatti molteplici.

Modelli epidemiologici. La simulazione della dispersione delle goccioline di saliva nell'aria è infatti solo uno dei modi in cui i supercomputer hanno partecipato alla ricerca contro la pandemia di COVID-19. Un ruolo prominente lo hanno avuto infatti nelle prime settimane dell'epidemia per provare a prevedere il grado di diffusione del virus nelle popolazioni e misurare gli effetti delle diverse misure di distanziamento sociale che i governi stavano allora considerando di introdurre per gestire l'emergenza.

Un esempio è la collaborazione tra il Gauss Centre for Supercomputing, che raggruppa i tre supercomputer tedeschi Hawk a Stoccarda, JUWELS a Julich e SuperMUC-NG a Garching vicino Monaco di Baviera, e gli epidemiologi dell'Università di Heidelberg e del Frankfurt Institute for Advanced Studies coordinata dall'italiana Maria Vittoria Barbarossa. La collaborazione ha permesso di elaborare delle stime sull'evoluzione del numero di contagi in Germania nei mesi successivi considerando diversi gradi di riduzione dei contatti sociali. Per farlo gli epidemiologi hanno impiegato il modello SEIR (acronimo di Susceptible, Exposed, Infectious, or Recovered) che assegna tutti gli individui della popolazione a una fra quattro categorie, i suscettibili, i contagiati, gli esposti (coloro che sono stati infettati ma non sono ancora contagiosi) e i guariti, che si assume non possano più reinfettarsi. Il numero di individui appartenente a ciascuna di queste quattro categorie è una variabile che evolve nel tempo in dipendenza dalle altre. La loro collettiva evoluzione temporale è descritta da un sistema di equazioni differenziali che può essere risolto ricorrendo a metodi numerici e da qui la necessità di impiegare piattaforme di calcolo sufficientemente potenti per elaborare i risultati del modello in breve tempo. Nel caso della collaborazione coordinata da Barbarossa è stato scelto un modello che tiene conto della suddivisione della popolazione in fasce di età, attribuendo a ciascuno un diverso profilo di rischio di infettarsi e di infettare gli individui appartenenti al proprio gruppo o ad altri gruppi. Inoltre il modello è stato rifinito per tenere conto delle diverse fasi dell'infezione.

Esiste però un universo di modelli epidemiologici che richiedono simulazioni numeriche per poter ottenere delle previsioni. Come si legge in questo articolo pubblicato dalla rivista Nature all'inizio di aprile, una categoria di modelli ad alto fabbisogno computazionale è quella chiamata agent-based, in cui si simula il comportamento di ciascun individuo della popolazione tenendo in considerazione la rete sociale con cui interagisce.

Appartiene a questa categoria il modello impiegato dal gruppo di epidemiologi dell'Imperial College coordinati da Neil Ferguson, soprannominato dai media inglesi 'professor lockdown', per produrre una delle prime previsioni dell'andamento dell'epidemia a marzo scorso. Il modello in questione era stato formulato da Neil Ferguson e colleghi per descrivere l'epidemia di influenza H5N1 in Tailandia nel 2005 (qui i dettagli tecnici). La popolazione viene generata a computer tenendo conto dei dati sulla densità abitativa, sulla stratificazione per età, sulla distribuzione di dimensione delle famiglie, di quella delle scuole e dei luoghi di lavoro e infine sugli spostamenti effettuati per raggiungere quotidianamente il luogo di lavoro o la scuola. Considerando il fatto che ogni ambiente ha una diversa probabilità di diffondere il virus (ad esempio è più probabile il contagio in famiglia che quello a scuola) si calcola la probabilità individuale di essere infettati in un certo momento e per un certo arco temporale, probabilità che dipende dalla configurazione di tutto il resto della popolazione che viene simulata. Con questa probabilità si effettuano delle simulazioni: tanti mondi possibili in cui le persone si spostano da casa per andare a scuola o al lavoro e a ogni passo temporale ciascuna di queste persone si infetterà o meno in base alla sua probabilità individuale (a ogni passo si sorteggia una variabile casuale da una distribuzione che tiene conto della probabilità di contagio di quell'individuo in quel momento particolare e in quello specifico corso degli eventi). Questo insieme di possibili mondi permette di dare una stima probabilistica di quale sarà il numero di infetti nel futuro giorno per giorno. Chiaramente per poter simulare questi mondi c'è bisogno di conoscere alcune caratteristiche di base dell'epidemia, come il grado di infettività in diversi ambienti (al chiuso o all'aperto), il decorso della malattia, in particolare il periodo di incubazione, e così via. Come è facile immaginare una simulazione così dettagliata della dinamica di una popolazione ha un enorme fabbisogno computazionale e dunque la disponibilità di supercomputer in grado di macinare un gran numero di calcoli in tempi brevissimi è cruciale. Quando queste prime simulazioni sono state realizzate, l'epidemia era molto giovane e dunque è stato necessario fare delle assunzioni non basate necessariamente sui fatti. Man mano che l'epidemia è progredita abbiamo guadagnato informazioni e conoscenza sul virus e ora queste previsioni sono più affidabili.

Un altro modello agent-based è quello formulato da Alessandro Vespignani e dal suo gruppo alla Northeastern University di Boston. Si chiama GLEaM (Global Epidemic and Mobility) e si basa su una simulazione del comportamento individuale delle persone includendo però anche i dati di mobilità su brevi e lunghe distanze, suddividendo la popolazione mondiale in 3300 sottogruppi, ciascuno associato a un hub aeroportuale. Utilizzando il modello GLEaM il gruppo statunitense ha prodotto uno studio, pubblicato sulla rivista Science, sull'impatto che le restrizioni imposte sui viaggi internazionali hanno avuto sul progredire dell'epidemia di COVID-19 a livello globale nelle fasi iniziali.

Tra i modelli agent-based e quelli che descrivono l'evoluzione dell'epidemia tramite la dinamica aggregata degli individui appartenenti alle quattro categorie suscettibili, esposti, infetti e guariti (il primo tipo di modelli che abbiamo descritto) esistono molte possibilità intermedie. Un esempio è il modello descritto dal matematico Nicola Bellomo e dall'economista Pietro Terna su Scienza in rete in cui ogni individuo appartiene a una diversa categoria in base al suo stato di salute iniziale e ciascuna di queste categorie ha una diversa probabilità di infettarsi e va incontro a un differente decorso.

La ricerca di nuovi farmaci. La terza area in cui le piattaforme di high performance computing hanno avuto un ruolo cruciale è stata quella del cosiddetto drug discovery, ovvero la ricerca di farmaci efficaci nel trattamento della COVID-19.

EXCSALTE4COV è un consorzio finanziato con 3 milioni di euro tramite il programma Horizon 2020 della Commissione Europea che raggruppa 18 istituzioni da 7 Paesi con lo scopo di individuare molecole già note o già impiegate per la cura di altre malattie che possano essere efficaci contro i casi moderati o lievi di COVID-19. Il consorzio mette insieme tutti i soggetti che compongono la 'filiera' del drug discovery. C'è il sincrotrone ELETTRA di Trieste, che tramite cristallografia a raggi X è in grado di costruire modelli tridimensionali delle 25 proteine del virus che hanno diversi ruoli biologici nel processo di infezione. Poi c'è la farmaceutica Dompé, che ha messo a disposizione la sua libreria di molecole e i suoi modelli di simulazione della dinamica molecolare passando in rassegna oltre 400 mila composti per trovare quelli capaci di legarsi alle proteine del virus e inibirne il processo di replicazione. Per farlo Dompé ha potuto contare sul supercomputer Marconi100 del consorzio interuniversitario CINECA, con una potenza computazionale che raggiunge i 32 petaflops. E andando ancora avanti nel processo di drug discovery, c'è la Katholieke Universiteit Leuven in Belgio che ha testato in vitro in cellule infettate col SARS-CoV-2 le molecole più promettenti selezionate dai modelli computazionali. Il consorzio già a giugno ha prodotto un primo risultato, individuando nel Raloxifene, un farmaco usato nella cura dell'osteoporosi in menopausa ma non solo, un candidato promettente e avanzando all'EMA, l'agenzia europea del farmaco, la richiesta di avviare studi clinici sugli esseri umani.

Un altro grande consorzio è nato dalla collaborazione tra il centro di eccellenza CompBioMed, anch'esso finanziato da Horizon 2020, il Gauss Centre for Supercomputing e una serie di centri di high performance computing negli Stati Uniti, tra cui il supercomputer Summit di IBM ospitato presso lo Oak Ridge National Laboratory. Il centro CompBioMed è coordinato dal Professor Peter Coveney direttore del Centre for Computational Science alla University College London, e mette a disposizione le competenze maturate nell'ambito della biologia computazionale, in particolare nella ricerca di nuovi farmaci antivirali.

In questa rassegna vale infine la pena di includere il consorzio statunitense COVID-19-HPC, che mette insieme i centri di calcolo di laboratori federali, università, centri di ricerca ma anche società private (IBM e Microsoft tra le altre) per offrire una capacità di calcolo fino a 600 petaflops. A oggi ha permesso lo sviluppo di 87 progetti, che vanno dalla previsione della struttura delle proteine del virus fino allo sviluppo di una applicazione per il contact tracing che sia rispettosa delle leggi sulla privacy europee.

Per suggerimenti e commenti scrivere a: [email protected]
Per donare alla Newsletter clicca qui
Se invece non vuoi più ricevere la newsletter clicca qui
PS: per tenere Scienza in rete fuori dallo spam aggiungi la nostra mail [email protected] tuoi contatti (per Gmail, vai a contacts.google.com e clicca su "crea contatto"). Se Scienza in rete finisce nelle promozioni di Gmail, trascinala nella casella della tua posta in entrata per non perdere mai un numero!
Segui Scienza in rete
logo facebook logo twitter logo twitter logo twitter

By:
logo nuovo zadig