Covid-19/

Puntare sulla ricerca: ecco il Brain Activity Map di Obama

Tempo di lettura: 4 mins

Chi ha detto che la ricerca non paga. Che non sia così lo dimostra il progetto Human Genome, lanciato dagli USA nel 1999 e costato un po’ meno di 4 miliardi di dollari in 10 anni ma che, a tutt’oggi, ha fruttato 796 miliardi di dollari in attività economiche ed ha generato 310.000 posti di lavoro.
Ora è la volta del progetto di mappatura dell’attività del cervello (Brain Activity Mapping Project) per il quale Obama intende spendere poco più di 3 miliardi di dollari in 10 anni e il cui annuncio ufficiale è atteso per questo mese (Marzo 2013). Il Brain Activity Mapping Project è l’omologo americano dell’europeo Human Brain Project, che sarà finanziato con 1.2 miliardi di dollari in 10 anni.

Al di là del tema comune, il cervello, i due progetti sono però molto diversi sia come approccio metodologico che come finalità. L’Human Brain Project intende costruire, utilizzando gli strumenti dell’ICT (Information Communication Technology) un cervello artificiale capace di riprodurre alcune capacità tipiche del cervello umano. Tuttavia, è noto che uno stesso risultato può essere ottenuto attraverso algoritmi del tutto diversi. Perciò, il fatto di riprodurre in silico certe proprietà operative proprie del cervello umano non ci assicura che ciò avvenga attraverso gli stessi processi computazionali utilizzati dall’uomo.
A differenza dell’Human Brain Project, il Brain Activity Mapping Project intende conoscere i processi neurali così come essi avvengono in natura, attraverso uno studio dell’attività funzionale di tutti gli elementi che costituiscono il cervello. Questo processo di conoscenza procederà per fasi, partendo dal sistema nervoso di organismi semplici, come il Caenorhabditis elegans, un verme, la Drosophila melanogaster, il moscerino della frutta, il pesce zebra, fino ad arrivare ai primati e all’uomo, passando per il topo di laboratorio e altri mammiferi più semplici.
Il metodo su cui dovrebbe basarsi questo studio è quello che è stato, dalla nascita delle Neuroscienze, il metodo principe per lo studio della funzione del sistema nervoso, la registrazione dell’attività funzionale dei neuroni. Ciò che cambia, in questo caso, è la scala dello studio, non più basato, come è attualmente, sulla registrazione di un campione di pochi neuroni rappresentativi, ma sulla registrazione contemporanea dell’attività di tutti i neuroni che compongono un circuito. Il cervello umano possiede circa 90 miliardi di neuroni, cellule che, a differenza di quelle di altri organi (il fegato, i muscoli, le mucose etc etc) mostrano un’estrema eterogeneità e specializzazione e sono tra loro connesse attraverso specializzazioni di membrana (es. le sinapsi), che ne amplificano ulteriormente la complessità.

Con queste premesse, il progetto del Brain Activity Mapping non si basa su nuove ipotesi di lavoro (hypothesis-driven) ma sullo svilupo di nuove e rivoluzionarie metodologie (methodology-driven). Se si vuol trovare un concetto informatore del Brain Activity Mapping Project, l’unico è quello che la metodologia di studio del cervello deve adeguarsi alla sua complessità.
Il progetto comporterà infatti lo sviluppo di metodi di registrazione che dovranno essere dotati di un potere di risoluzione spazio-temporale adeguato alle caratteristiche dell’attività dei singoli neuroni e allo stesso tempo capaci di registrare contemporaneamente da centinaia di migliaia di essi. Non c’è dubbio che la sfida lanciata dal progetto è estremamente ambiziosa ed il risultato non scontato a priori. Per questo motivo il progetto ha trovato vari oppositori prima ancora di vedere la luce, anche tra i neuroscienziati. Gli argomenti sono vari. Il più serio è che i metodi capaci di registrare da popolazioni costituite da migliaia di neuroni non possiedono la risoluzione spazio-temporale adeguata per registrare l’attività dei singoli neuroni che le compongono.  D’altra parte, i metodi che permettono la registrazione dell’attività di singoli neuroni, compresi quelli che utilizzano metodi ottici, sono di natura invasiva e perciò possiedono dei limiti alla loro applicabilità all’uomo. Infine si è obbiettato che la registrazione da una così enorme moltitudine di neuroni comporterebbe grossi problemi di immagazzinamento (storage) dei dati. Per esempio, lo storage dell’attività di 10 milioni di neuroni l’anno avrebbe bisogno di uno spazio di 30 petabyte. Il superaccelleratore (LHC) di Ginevra genera ogni anno dati che occupano circa 10 petabyte. Lo storage dei dati generati dalla registrazione dell’attività dei 90 miliardi di neuroni del cervello umano occuperebbe uno spazio di 300.000 petabyte all’anno.

In via di principio, il progetto Brain Activity Mapping dovrebbe dare un grosso impulso alle Neuroscienze. Tuttavia, non necessariamente questi grossi progetti hanno riflessi positivi sulla ricerca in generale. Per esempio, il fatto che l’LHC abbia confermato per filo e per segno il Modello Standard ha finito per desertificare un’area della fisica teorica molto feconda, quella dell’elaborazione di modelli alternativi a quello Standard. Il progetto Brain Activity Mapping, a sua volta, potrebbe risucchiare le risorse disponibili per le Neuroscienze, già ridotte a causa dei tagli alla spesa pubblica.

Aiuta Scienza in Rete a crescere. Il lavoro della redazione, soprattutto in questi momenti di emergenza, è enorme. Attualmente il giornale è interamente sostenuto dall'Editore Zadig, che non ricava alcun utile da questa attività, se non il piacere di fare giornalismo scientifico rigoroso, tempestivo e indipendente. Con il tuo contributo possiamo garantire un futuro a Scienza in Rete.

E' possibile inviare i contributi attraverso Paypal cliccando sul pulsante qui sopra. Questa forma di pagamento è garantita da Paypal.

Oppure attraverso bonifico bancario (IBAN: IT78X0311101614000000002939 intestato a Zadig srl - UBI SCPA - Agenzia di Milano, Piazzale Susa 2)

altri articoli

Antartide sopra i 2°C: punto di non ritorno?

antartide

All’inizio del 2020 le temperature nell’Antartico hanno superato per la prima volta i 20°C e questa non è in alcun modo una buona notizia. Uno studio pubblicato su Nature stima che, restando sotto i 2°C di aumento della temperatura globale media per fine secolo, avremmo almeno circa 1.3 metri di mare in più. Se dovessimo superare i 2°C, si arriverebbe anche a 2.4 metri (per ogni grado in più).

Immagine: Pixabay License.

Un cubetto di ghiaccio in un bicchiere d’acqua, se si scioglie, non contribuisce a far innalzare il livello del liquido. Questo è facilmente verificabile applicando le note leggi di Archimede. Allo stesso modo, non è il ghiaccio galleggiante, come gli iceberg, che determina l’aumento del livello del mare, ma, come sappiamo, i ghiacci continentali. L’Antartide ha un’estensione di circa 14 milioni di km2, un volume di quasi 27 milioni di km3 e detiene più della metà delle risorse di acqua dolce della Terra.