fbpx Ricostruire il cervello umano, la nuova sfida per la Big Science | Scienza in rete

Ricostruire il cervello umano, la nuova sfida per la Big Science

Primary tabs

Read time: 8 mins

I complessi neuronali hanno proprietà importanti che non possono essere spiegate dalla somma delle qualità dei singoli neuroni, diceva O. Hechter in "Biology and Medicine into 21st Century” nel 1991.
Lo studio delle funzioni cognitive superiori e la possibilità di emularle sono alcuni degli sviluppi inaspettati della cibernetica, la scienza che studia i sistemi complessi e che è nata con lo scopo, fallito, di trovare una legge unificante di tutti i sistemi. La comprensione del funzionamento del cervello umano sembra infatti il nuovo obiettivo scientifico del XXI secolo, lo dimostrano i progetti di Big Science europei e americani, che dopo lo spazio, il genoma umano e il cancro, si stanno muovendo in questa direzione.
Nel gennaio del 2013, la Commissione Europea ha finanziato lo Human Brain Project (HBP) con 1,2 miliardi di euro per dieci anni, con lo scopo di costruire un supercomputer che simuli il cervello umano, integrando tutte le conoscenze che si hanno sull’argomento.
Pochi mesi dopo, nell’aprile 2013, il presidente degli Stati Uniti Barack Obama ha annunciato il progetto BRAIN (Brain Research through Advancing Innovative Neurotechnologies) Initiative, per il quale sono stati stanziati per i successivi dieci anni 3 miliardi di dollari da agenzie governative e private.
Questo secondo progetto mira a ottenere una mappatura di tutte le connessioni cerebrali, per comprenderne la funzionalità e capire quali meccanismi risultano alterati nelle malattie neurodegenerative. Parliamo quindi di due progetti, in parte complementari, che partono da un obiettivo comune: svelare il funzionamento del cervello umano, da una parte per simularne l’azione attraverso le nuove tecnologie (l’ingegneria, l’informatica e la robotica), dall’altra per diagnosticare precocemente o creare una terapia personalizzata per alcune patologie che lo colpiscono, quali il Parkinson e l’Alzheimer.


Le basi, teoriche e tecniche, per portare avanti questi ambiziosi progetti derivano da decenni di studi e finanziamenti precedenti. La sperimentazione animale ha favorito l’acquisizione di conoscenze sul sistema senso-motorio, l’apprendimento, la memoria e le emozioni. Mentre con l’introduzione di nuove tecnologie si è potuta registrare simultaneamente l’attività di più neuroni e manipolare l’attività di circuiti cerebrali. Infine, grazie a potenti tool informatici si possono integrare e analizzare complessi set di dati, ricavandone nuove informazioni. Questi due progetti di Big Science, che dopo poco più di un anno dal loro avvio hanno iniziato a collaborare, potrebbero quindi svelarci i segreti dell’organo più complesso del nostro organismo, seppure con qualche perplessità di partenza.


Tutte le premesse, sulla carta, lasciano supporre che HBP sia il più ambizioso e visionario progetto di ricerca del nostro decennio. Eppure, il 7 luglio del 2014, 156 neuroscienziati europei hanno redatto, firmato e spedito alla Commissione Europea una lettera aperta di protesta. La ragione del malcontento è la mancata autorizzazione, da parte del direttore del progetto Henry Markram, dell’uso dei fondi europei per effettuare studi sulle funzioni cognitive superiori.
I finanziamenti sarebbero stati infatti destinati esclusivamente alla ricerca di nuove tecnologie informatiche, computer, database e simulazioni matematiche in grado di replicare l’attività del cervello umano. La petizione ha raggiunto, nei giorni successivi alla sua pubblicazione online, più di 700 firme e ha evidenziato un conflitto che si poi è tramutato in una pesante spaccatura all’interno della comunità scientifica. Tra i firmatari della lettera aperta ci sono molti neuroscienziati, ma anche rappresentanti delle scienze computazionali. La modalità di gestione dei fondi di HBP è, però, solo uno dei due pilastri alla base della protesta. L’altro è una questione puramente scientifica.
Come si può sperare di ottenere informazioni utili da un modello computazionale, se questo è la copia di un modello biologico del cui funzionamento si sa ancora troppo poco? Un approccio di questo tipo ha, secondo i critici, il limite di semplificare enormemente una questione che nella realtà è tutt’altro che semplice.
In particolare, questo modello riduzionista non tiene conto dei nuovi campi del sapere. Dalla ricerca sono infatti esclusi: l’Evolutionary Development Biology (EvoDevo), la disciplina scientifica che analizza in chiave evolutiva la struttura e le funzioni del genoma indagando il rapporto tra lo sviluppo embrionale e fetale di un organismo e l'evoluzione della sua popolazione di appartenenza; la genetica del comportamento; la ricerca di anomalie strutturali e/o funzionali alla base delle malattie neurologiche. Sono anche ignorate le principali proprietà del nostro sistema nervoso: la capacità di interazione con l’ambiente interno ed esterno, di pensare e ricordare, la sfera emozionale e comportamentale.
Difficile sperare che il progetto americano possa sopperire in qualche modo a queste mancanze.
I due progetti di Big Science, infatti, sembrano peccare su un fronte comune, quello biologico, perché non prendono in considerazione l’epigenetica. Questa si riferisce ai tratti fenotipici, ovvero le caratteristiche osservabili degli organismi viventi, che possono essere ereditati tra una generazione e l’altra, senza modificare la sequenza del DNA. L’ambiente in cui un organismo vive induce infatti delle modificazioni molecolari reversibili, a livello del genoma, che regolano l’espressione genica. Il cervello umano reagisce agli stimoli ambientali, si modifica e si adatta in continuazione ai cambiamenti. Per questo le modificazioni epigenetiche possono avere un ruolo importante non solo nello sviluppo del sistema nervoso, ma anche a livello delle funzioni cerebrali superiori, quali la capacità di apprendimento e la memoria, che si vorrebbero simulare.
Da un punto di vista più teorico, il primo argomento di critica si riassume nella domanda: può un sistema complesso come il cervello umano, essere paragonato a una macchina computazionale? Per i critici al progetto HBP la risposta è ovviamente negativa.

Questo quesito, ben caro alla filosofia, ha portato tra gli anni ’70 e ’80 alla nascita dell’intelligenza artificiale (AI), una disciplina, nell’ambito dell’informatica, che si occupa di creare macchine intelligenti. Il filosofo della mente John Searle la divise, nel 1980, in due categorie:
- IA forte, che si fonda sull’idea di programmare una macchina che sia in grado di pensare e avere coscienza di sé;
- IA debole, cioè l’uso di programmi che possono effettuare ragionamenti al limite delle capacità cognitive umane, senza effettivamente essere in grado di pensare.

Uno dei punti in cui l’IA forte si è maggiormente concentrata è la rappresentazione della conoscenza tramite insiemi di regole espresse in forma di logica matematica, i cosiddetti “sistemi esperti”. L’obiettivo era quello di replicare l’intelligenza umana, in particolare la parte intellettuale dell’esecuzione dei compiti, per creare degli alter ego degli umani con “cervelli positronici”, per dirla con Asimov, e capacità equivalenti, se non superiori. Nonostante il fallimento di questo progetto, a distanza di anni, i computazionali di HBP credono ancora che riprodurre in forma di equazione matematica i processi biologici, pur semplificando il sistema, sia necessario per conoscerne il funzionamento. Dal fallimento dell’IA forte a oggi, la tecnologia informatica si è notevolmente sviluppata, ma è sufficiente per ottenere un supercomputer che simuli fedelmente un cervello umano? Il secondo argomento, attorno al quale ha preso piede la critica, riguarda in qualche modo il concetto stesso di Big Science. La storia della scienza è da sempre costellata di inseguimenti di grandiosi traguardi. Non sempre, però, la ricerca è in grado di competere con le speranze e i piani elaborati dall’uomo. Seguendo questa linea di pensiero, HBP sembrerebbe destinato a ricalcare gli esiti di altri due progetti di Big Science: “la guerra contro il cancro” e la “mappatura del genoma umano”, due esempi di fallimento dell’obiettivo primario che sono però stati fautori di un fondamentale cambiamento della nostra società.
Siamo nel 1971 quando Richard Nixon, l’allora presidente degli Stati Uniti, firma il “National Cancer Act” dando inizio alla cosiddetta “guerra contro il cancro”. In quegli anni, dopo che l’uomo era riuscito ad andare sulla Luna, la fiducia nella scienza era a dir poco illimitata e c’era la convinzione che la disponibilità di fondi fosse l’unico bagaglio necessario per raggiungere un esito positivo. L’ottimismo del presidente era tale che si credeva che questo progetto avrebbe permesso di scoprire una cura contro il cancro entro un decennio. Ad oggi questa guerra non è ancora finita: il cancro resta una delle principali cause di morte dell’uomo. Ciò che va però sottolineato è che, se pur visionario, il progetto iniziato da Nixon ha permesso di raggiungere significativi progressi nel trattamento di alcune forme di questa malattia, permettendo la cura di certi tumori.
Alcuni di questi progressi si devono anche ai risultati ottenuti dalla ricerca nell’ambito del Progetto Genoma Umano. Iniziato nel 1990 negli Stati Uniti e dichiarato concluso nel 2000, anche se la sequenza del cromosoma 1, la più difficile da effettuare, è stata completata solo nel 2006. Questo progetto aveva come obiettivo quello di conoscere la sequenza dei geni della specie umana e la loro posizione sui vari cromosomi, costruendo così una mappa del genoma. In un periodo in cui si riteneva che il 95% del genoma umano fosse “spazzatura”, per molti biologi non aveva senso impiegare tempo e risorse per ottenere dati che, nella maggior parte dei casi, rivelavano poco o nulla sulle malattie e sullo sviluppo umano.
Oggi, sappiamo che parte del “DNA spazzatura” ha funzioni regolatorie, abbiamo trovato la correlazione tra alcune malattie, come la fibrosi cistica, e mutazioni della sequenza genica e possiamo svolgere test diagnostici, grazie a questo progetto che ha aperto la strada per indagare più a fondo la struttura e la funzione dei geni umani.


Anche nel caso di HBP un eventuale fallimento dell’obiettivo primario, potrebbe portare a una serie di scoperte collaterali fondamentali per il progresso scientifico e per la conoscenza delle capacità cognitive umane e delle malattie neurodegenerative. La lettera di protesta dei ricercatori ha già portato un cambiamento: le neuroscienze cognitive verranno reintegrate in un nuovo sotto-progetto. Chissà se le scoperte che ne deriveranno miglioreranno le nostre condizioni di vita o modificheranno il nostro modo di rapportarci all’interno della società e con le macchine. Lo sapremo, forse, nei prossimi decenni.

di Laura Barbalini e Alice Tagliabue

Fonti
https://www.humanbrainproject.eu/
http://www.scientificamerican.com/article/human-brain-project-needs-a-rethink/
http://ovadia-lescienze.blogautore.espresso.repubblica.it/2014/07/14/bufera-nel-mondo-delle-neuroscienze/
http://www.wired.it/scienza/medicina/2015/03/05/problemi-human-brain-project/
http://braininitiative.nih.gov/
http://www.corriere.it/salute/sportello_cancro/11_giugno_19/dossier-oncologia-cancro-carta-identita-bazzi_8a20d84c-98d8-11e0-bb19-8e61d656659c.shtmlhttp://www.treccani.it/enciclopedia/progetto-genoma-umano/
http://www.di.unisa.it/~ads/BIOINFORMATICA/BiologiaMolecolare/pag/prog-genomaumano.html


Scienza in rete è un giornale senza pubblicità e aperto a tutti per garantire l’indipendenza dell’informazione e il diritto universale alla cittadinanza scientifica. Contribuisci a dar voce alla ricerca sostenendo Scienza in rete. In questo modo, potrai entrare a far parte della nostra comunità e condividere il nostro percorso. Clicca sul pulsante e scegli liberamente quanto donare! Anche una piccola somma è importante. Se vuoi fare una donazione ricorrente, ci consenti di programmare meglio il nostro lavoro e resti comunque libero di interromperla quando credi.


prossimo articolo

Intelligenza artificiale ed educazione: la ricerca di un incontro

Formazione ed educazione devono oggi fare i conti con l'IA, soprattutto con le intelligenze artificiali generative, algoritmi in grado di creare autonomamente testi, immagini e suoni, le cui implicazioni per la didattica sono immense. Ne parliamo con Paolo Bonafede, ricercatore in filosofia dell’educazione presso l’Università di Trento.

Crediti immagine: Kenny Eliason/Unsplash

Se ne parla forse troppo poco, almeno rispetto ad altri ambiti applicativi dell’intelligenza artificiale. Eppure, quello del rapporto fra AI ed educazione è forse il tema più trasversale all’intera società: non solo nell’apprendimento scolastico ma in ogni ambito, la formazione delle persone deve fare i conti con le possibilità aperte dall’IA.