Lo strano caso delle cellule STAP

Read time: 6 mins

Un gruppo di ricercatori annunciano di aver trovato un modo molto semplice di differenziare cellule staminali in vitro. Grandi speranze e clamore da parte dell’opinione pubblica. Stiamo parlando di nuovo del metodo Stamina? No, parliamo della procedura nota come STAP (Stimulus-triggered acquisition of pluripotency) messa a punto recentemente da un gruppo di ricerca giapponese del CDB di Kobe, uno dei migliori centri di ricerca di base in Giappone. Come per il metodo Stamina, la validità della procedura è stata recentemente messa in discussione. Racconto come si sono svolti gli eventi per illustrare cosa succede nella comunita’ scientifica quando appaiono ricerche non sufficientemente circostanziate o potenzialmente fraudolente.

Tutto comincia con la pubblicazione a fine gennaio su Nature di due lavori che indicano che cellule somatiche differenziate, se esposte ad una soluzione a basso pH e ad un mezzo di coltura per cellule staminali, possano de-differenziare e trasformarsi in cellule staminali pluripotenti. La metodologia è potenzialmente rivoluzionaria. Infatti finora un buon numero di ricerche, tra cui quelle che hanno fruttato a Shinya Yamanaka e John Gurdon il premio Nobel 2012 per la medicina, hanno indicato che il processo per indurre questo tipo di cellule, chiamate iPSCs (induced Pluripotent Stem Cells), necessiti di un “cocktail” di 4 fattori transcrizionali (Myc, Oct3/4, Sox2 and Klf4, i cosidetti “Yamanaka factors”). Quindi niente Yamanaka factors, ma solo un rapido trattamento in un soluzione moderatamente acida per generare iPSC, dice il noto ricercatore di Cambridge Austin Smith chiamato a commentare le ricerche per l’autorevole rivista.

Il clamore generato dalla ricerca nella comunità scientifica che si occupa di cellule staminali innesca subito grandi discussioni e la consueta corsa a ripetere gli esperimenti chiave per potere scoprire di più e avvantaggiarsene. Alcuni fallimenti nel riprodurre i dati portano a scrutinare nei dettagli più minimi gli articoli pubblicati.
Presto, siti specializzati si riempiono di commenti su potenziali anomalie nelle figure delle pubblicazioni. Come spesso accade in questi casi, si commentano cose come la possibilità che in una figura le corsie mostrate non facciano parte dello stesso gel, o se delle immagini di immunofluorescenze al microscopio siano indebitamente ritoccate. Queste possibili anomalie portano ad un’investigazione interna da parte del RIKEN, l’organizzazione governativa giapponese che gestisce l’istituto da cui proviene la ricerca.
Gli ispettori del RIKEN richiedono i dati primari, cioè le immagini ottenute al microscopio, quelle relative agli immunoblot, e i quaderni di laboratorio di chi ha condotto gli esperimenti.
Chiedendo spiegazioni ai ricercatori coinvolti in breve ottengono tutti i dati primari esistenti degli esperimenti inclusi negli articoli in questione. Emerge un quadro di fatti che mettono in dubbio l’integrità del primo autore degli articoli. Si determina che una serie di immagini sono state etichettate erroneamente e non si riesce a determinarne la provenienza. I quaderni di laboratorio non riportano in modo chiaro cosa è stato fatto e quando. Altre manipolazioni nella produzione delle immagini per l’articolo non sono tra quelle consentite per rappresentare le scoperte in modo veritiero. L’indagine non riesce a determinare se ci sia stata cattiva fede ma indica che un mix di inaccuratezze e inesperienza non consentono di determinare se la scoperta è provata.
La commissione del RIKEN si spinge anche più in là suggerendo che l’intero CDB debba essere riformato o addirittura chiuso perchè troppo ambizioso e non adeguatamente organizzato per prevenire una situazione come quella accaduta.

Anche Nature investiga, trova una serie di inesattezze addizionali e finisce per ospitare, pochi giorni fa, la retrazione di entrambi i lavori firmata da tutti i ricercatori coinvolti e quella del commento di Austin Smith.
In un editoriale, abbastanza inusuale rispetto ad altri casi di retrazione (infrequenti ma tutt’altro che inesistenti), la rivista informa che il peer-reviewing dei lavori, avvenuto in forma confidenziale come da prassi consolidata, non ha evidenziato anomalie ma ammette di dover rivedere le proprie procedure di controllo per identificare in futuro perlomeno l’appropriatezza delle manipolazioni di immagine nei manoscritti inviati per la pubblicazione.

Fin qui i fatti. Seguono alcuni commenti da addetto ai lavori, visto che mi occupo di ricerca di base e gestisco un laboratorio. La ricerca in questione proviene da un istituto che a obiettivamente contribuito negli ultimi anni ad avanzare le nostre conoscenze. Nonostante questo, nessuno ha considerato di utilizzare una spropositata somma di denaro pubblico per provare la veridicita’ di una ricerca, per quanto importante, come è successo per l’affaire Stamina. In generale, a decretare ciò che funziona si presume che bastino il tempo  e i normali meccanismi di controllo e di competizione che sono parte della pratica scientifica moderna.

Quanto sopra non vuol dire che la pratica scientifica attuale non sia migliorabile. Per esempio: un ricercatore che dirige un intero laboratorio in un’istituzione rinomata, per quanto giovane come nel caso del primo autore della ricerca, non può non sapere la differenza tra riportare adeguatamente i risultati di rigorosi esperimenti più volte ripetuti (uno dei requisiti per la riproducibilità scientifica) e l’assemblaggio di più esperimenti fatti in modi e tempi diversi. O essere incerto su cosa debba finire in una figura, o indifferente a ciò che non è lecito nella rappresentazione, diciamo a due dimensioni (come lo è necessariamente quella che finisce su carta stampate) di esperimenti complessi. Bisogna sicuramente migliorare la formazione dei ricercatori, che spesso è il risultato di prove ed errore sul campo ed è limitata all’esperienze passate, e non ai nuovi compiti (saper fare esperimenti non significa necessariamente saperli valutare e rappresentare o gestire le persone che li fanno).

E’ anche probabile che, come suggerisce l’indagine del RIKEN, in questa storia ci sia stata una forte pressione a presentare dati di fretta e senza il dovuto rigore. Un articolo in Nature, in situazione di forte competizione vuol dire carriera per sé e finanziamenti per l’istituto, figuriamoci due. Per non parlare di eventuali interessamenti da parte dell’industria farmaceutica. Questo sistema del “pubblica o muori” (“publish or perish”) deve essere rivisto e maggiormente legato ai finanziatori della ricerca di base che in ultima analisi sono i contribuenti, e gli enti governativi che li rappresentano.

Una rivista scientifica come Nature, tra le migliori al mondo e che guadagna moltissimo dalla vendita di accessi agli articoli pubblicati, dovrebbe iniziare a gestire un processo delicato come il “peer reviewing” in modo non proprietario e confidenziale, o non gestirlo del tutto. Nel caso di problemi come questi non ha senso non rendere pubblico cosa è stato fatto per controllare l'attendibilità di quanto proposto. I ricercatori sono produttori e anche i controllori della ricerca scientifica (il peer reviewing, come suggerisce il termine, e’ gestito dalle riviste ma messo in pratica da ricercatori) e dovrebbero poter accedere a tutta la conoscenza senza restrizioni.
Il potere dell’editoria scientifica nel progresso scientifico è sproporzionato rispetto ai servizi resi ad essa, e anche qui il progresso sarebbe servito al meglio se i poteri di controllo fossero in mano ad agenzie di ricerca piuttosto che a entità private “for profit”. Si potrebbe addirittura sostenere che, in casi come questi il ‘peer reviewing’ che conta è quello post-pubblicazione e che quello pre-pubblicazione a porte chiuse finisca solo per ritardare la conoscenza dei fatti.

Infine, è possibile che nel XIX secolo, quello dei big data in rete, la scienza, soprattutto quella che finisce nei cosidetti “luxury Journals”, i giornali di lusso come Cell, Science e appunto Nature, debba essere ancora contenuta in ciò che sta poche paginette stampate? Questa prassi ha aiutato la sintesi e la ricerca degli esperimenti chiave per dimostrare molte teorie ma e’ oramai obsoleta e inadeguata per contrastare le manipolazioni, più o meno fraudolente ma sempre più tecnologiche.

In sintesi, ad oggi non sappiamo ancora se il protocollo STAP funzioni ma sicuramente la risonanza degli eventi che ho raccontato è servita a mettere ben a fuoco le non poche buche sulla strada della conoscenza.

altri articoli

Filamenti cosmici e materia mancante

Istantanea di una tipica simulazione computerizzata dell’evoluzione dell’Universo in cui appare la misteriosa struttura spugnosa del Cosmo. Di questa immensa ragnatela tridimensionale è artefice la materia oscura (in viola nell’immagine) che, con la sua azione gravitazionale, plasma i lunghi filamenti, li collega tra loro con nodi e obbliga la materia ordinaria a concentrarsi nelle regioni con densità più elevata. Le galassie (in bianco) si trovano dunque nei punti più densi della struttura e sono maggiormente concentrate nei nodi, dove si raggruppano in ammassi e superammassi. Interessante osservare come gran parte del “volume” dell’Universo sia occupato dalle immense regioni desolatamente vuote che si estendono tra i filamenti. - Visualizzazione: Frank Summers, Space Telescope Science Institute.

Tra i molti problemi che astronomi e cosmologi si trovano a dover districare vi è anche quello della materia mancante. Le attuali teorie e i dati provenienti dallo studio della radiazione cosmica di fondo, il cosiddetto eco fossile del Big Bang, hanno suggerito quale potrebbe essere la composizione del Cosmo.