fbpx H5N1: sicurezza batte trasparenza | Page 12 | Scienza in rete

H5N1: sicurezza batte trasparenza

Read time: 2 mins

Un po’ malvolentieri, e sottolineando la loro contrarietà, ma sia Albert Osterhaus, dell’Erasmus Medical Center di Rotterdam, sia Yoshihiro Kawaoka, dell’Università del Wisconsin, a Madison, si sono piegati alle richieste del National Science Advisory Board for Biosecurity, l’organismo governativo statunitense: entrambi i gruppi di ricerca stanno apportando tagli e modifiche ai loro lavori, sottoposti rispettivamente a Science e Nature, per evitare che  qualche malintenzionato li possa riprodurre, scatenando la pandemia del secolo.

Negli studi che terrorizzano le autorità USA si sono infatti riusciti a creare in laboratorio ceppi di virus A/H5N1 (quello dell’influenza aviaria) potenzialmente in grado di trasmettersi da uomo a uomo. Il killer perfetto, in sostanza, che possiede allo stesso tempo la capacità di uccidere fino a 6 persone su 10 tra quelle infettate (questi sono i numeri dell’epidemia di H5N1 registrata nel 2003) con la facilità di contagio tipica dei normali virus stagionali.

I giornali stamattina hanno riportato come i direttori di Science e Nature avessero ricevuto l’invito dalle autorità statunitensi l’invito senza precedenti a non pubblicare i dati salienti degli esperimenti. Questa sera si è saputo che i ricercatori, pur recalcitrando, hanno accettato di censurare i loro paper.

Il direttore di Science, Bruce Alberts, ha dichiarato che non pubblicherà nulla senza il placet delle autorità, ma ha anche ribadito la necessità di mettere i dati oscurati a disposizione degli esperti qualificati che li richiederanno. Per questo sta discutendo con le autorità stesse un meccanismo di controllo: bisognerà capire però quali saranno i criteri per decidere chi potrà avere accesso a queste informazioni.

 Science, 22 dicembre 2011

 

Autori: 
Sezioni: 
Virus

prossimo articolo

L’intelligenza artificiale come progetto umano. Intervista a Luciano Floridi 

Luciano Floridi

Luciano Floridi propone un approccio pragmatico all'intelligenza artificiale, da intendere non come destino che ci travolge ma come strumento che possiamo progettare e governare, a patto di sviluppare le competenze critiche necessarie a usarla anziché subirla.

In copertina: Luciano Floridi

L’intelligenza artificiale non è un destino, un’imposizione o una promessa, ma uno strumento che possiamo attivamente progettare, governare e orientare. Luciano Floridi, professore universitario a Yale e all’Università di Bologna e pioniere della moderna branca della filosofia dell’informazione, riflette su design, controllo ed etica dell’AI. Offrendo non speculazioni cavillose, ma questioni concrete. Non mondi (im)possibili, ma il mondo di oggi e domani. Non “dove andremo a finire”, ma “dove vogliamo andare”.