newsletter #47
logo Scienza in rete Newsletter #47
31 gennaio 2018
a cura di Chiara Sabelli
Charles Darwin. Credit: Wallpapertag.
L'edizione milanese del Darwin Day, il 6 febbraio prossimo, è dedicata al problema dell'affidabilità delle notizie, in particolare in ambito scientifico. A moderare l'incontro al Museo di Storia Naturale sarà la giornalista scientifica Sylvie Coyaud. In questa intervista, realizzata da Giuseppe Nucera, ci racconta cosa vuol dire essere una cronista della scienza nell'era delle fake news. Qui il programma completo dell'evento. Nell'immagine Charles Darwin. Credit: Wallpapertag.
IL CROWDSOURCING NELLA SCIENZA
Si chiama ENIGMA (Enhancing NeuroImaging Genetics through Meta-Analysis) il consorzio di 900 ricercatori provenienti da 39 Paesi fondato nel 2009 per accelerare la ricerca basata sulle immagini del cervello ottenute tramite risonanza magnetica. L'idea dei suoi fondatori è nata dalla constatazione che il costo dei macchinari limitava la ricerca in questo campo a poche dozzine di studi nel mondo, spesso impedendo di raggiungere statistiche sufficienti a ottenere risultati robusti. L'esperimento ha funzionato: a oggi i ricercatori hanno analizzato le immagini relative a oltre 30 mila persone, cercando correlazioni tra strutture cerebrali e genetica in pazienti sani o affetti da patologie come Alzheimer, Parkinson, schizofrenia, epilessia e stress post-traumatico. Il passo successivo è di raccogliere dati sull'attività del cervello tramite risonanza magnetica funzionale per cercare di tracciare dei collegamenti tra caratteristiche genetiche e strutture cerebrali. [Science; Giorgia Guglielmi]

Il 12 gennaio scorso è stato annunciato il primo sistema extrasolare di pianeti scoperto interamente grazie al crowdsourcing. Denominato K2-318, il sistema è stato individuato grazie al contributo degli utenti della progetto Exoplanet Explorers, ospitato dalla piattaforma Zooniverse, completamente dedicata alla crowdsourcing research. Exoplanet Explorers ha messo a disposizione i dati raccolti dal telescopio della NASA Kepler durante la missione K2, relativi a 287309 stelle. Osservando i cambiamenti di luminosità di queste stelle, i partecipanti devono decidere se sono compatibili con il passaggio di un pianeta in orbita intorno alla stella. Per ottenere un candidato esopianeta è necessario che almeno 10 persone analizzino le immagini e che le risposte siano positive nel 90% dei casi. Il primo risultato è arrivato poche settimane dopo il lancio del progetto, ad Aprile 2017. Dopo le dovute analisi l'articolo è stato accettato per la pubblicazione su The Astronomical Journal. [Caltech; Lori Dajose] Le barriere coralline sono minacciate dal cambiamento climatico, ma le caratteristiche di questa minaccia possono essere comprese solo analizzando dati su vasta scala, spaziale e temporale. Per raggiungere questo risultato è necessario che i diversi gruppi di ricerca e agenzie mettano in comune i dati, stabilendo contemporaneamente delle procedure comuni in modo da renderli compatibili. Esistono già diversi casi di campioni di dati sugli ecosistemi delle barriere coralline resi pubblici. Uno di questi è quello raccolto dai subacquei del National Oceanic and Atmospheric Administration (NOAA) nella zona del Pacifico centro-occidentale tra il 2010 e il 2017. [The Conversation; Adel Heenan e Ivor D. Williams]

GIUSTIZIA ARTIFICIALE
A quanti anni di carcere condannare un certo imputato? Trattenere un sospettato in carcere fino all'inizio del processo o invece rilasciarlo su cauzione? Per rispondere a queste domande, dagli anni '80, i tribunali americani si fanno aiutare da una serie di algoritmi, che calcolano il rischio di recidiva. Ma le previsioni di questi algoritmi sono affidabili? I risultati delle loro valutazioni sono equi? In un'analisi pubblicata su Science, un gruppo di data scientist del Dartmouth College ha mostrato che uno di questi algoritmi, COMPAS, non è più accurato di un essere umano a cui viene mostrato un profilo del sospettato. In più conserva gli stessi pregiudizi contro gli afro-americani. [Scienza in rete; Cristina Da Rold]

A rivelare che l'algoritmo COMPAS penalizza gli afro-americani era stata un'indagine di ProPublica, pubblicata nel 2016. I giornalisti avevano ottenuto i risk score assegnati da COMPAS a oltre 7000 persone arrestate nella contea Broward in Florida tra il 2013 e il 2014, e avevano poi controllato quanti di questi erano stati accusati di nuovi crimini nei due anni successivi. Ebbene: le previsioni di recidiva dell’algoritmo sbagliavano in maniera diversa per bianchi e neri. La percentuale di arrestati che pur avendo ricevuto un punteggio elevato non aveva commesso reati nei due anni seguenti (falsi positivi) era il 23% tra i bianchi e il 44,9% tra i neri. Al contrario coloro che, pur avendo ricevuto un punteggio basso, avevano commesso nuovi reati (falsi negativi) erano il 47,7% tra i bianchi e il 28% tra i neri. In altre parole l’inchiesta ha svelato che COMPAS sovrastima il rischio di recidiva per i neri e lo sottostima per i bianchi. [ProPublica; Julia Angwin, Jeff Larson, Surya Mattu e Lauren Kirchner]

La società Northpointe, che ha sviluppato e commercializzato COMPAS, si era difesa dalle accuse dicendo che l'algoritmo aveva la stessa accuratezza (percentuale di arrestati con punteggio alto che hanno effettivamente commesso nuovi crimini) per bianchi e neri, circa il 60%. L'inchiesta di ProPublica ha suscitato tuttavia l'interesse di quattro diversi gruppi di ricercatori negli Stati Uniti, che hanno provato a capire se è possibile "correggere" l'algoritmo in modo che, pur mantenendo l'accuratezza delle previsioni uguale per bianchi e neri, non penalizzi gli afro-americani, produca cioè percentuali di falsi positivi uguali nelle due popolazioni. Tutti e quattro i gruppi sono giunti alla conclusione che non è possibile progettare un algoritmo che rispetti entrambi questi vincoli, perché le due popolazioni sono rappresentate in proporzioni diverse nel campione di dati sugli arresti nella contea di Broward (i neri vengono arrestati più dei bianchi). Per riuscire a risolvere il problema sarebbe necessario utilizzare strumenti diversi per bianchi e neri. [ProPublica; Julia Angwin and Jeff Larson]

RICERCA E SOCIETÀ
Il 25 gennaio il Bulletin of the Atomic Scientists ha annunciato che mancano solo due minuti alla mezzanotte nucleare, 30 secondi meno dello scorso anno. Due i fattori che hanno pesato di più nella decisione del comitato: la proliferazione nucleare e lo scarso avanzamento nella riduzione delle emissioni di gas serra. Ma a preoccupare gli scienziati è anche la velocità a cui procede l'avanzamento tecnologico, dalle armi autonome alla biologia sintetica. Se mal governato, questo progresso potrebbe causare più danni che benefici. [Scienza in rete; Alessandro Pascolini]

Le ludopatie colpiscono quanto la schizofrenia e l'autismo. Eppure sono raramente oggetto di ricerche scientifiche. In una rassegna pubblicata lo scorso anno, si legge che tra il 1961 e il 2015 sono stati pubblicati solo 29 articoli scientifici in cui il problema delle ludopatie è studiato con una metodologia robusta. Finora sono stati adottati solo codici di condotta non vincolanti, la cui efficacia non viene quasi mai misurata accuratamente. Infine la ricerca scientifica ha spesso ricevuto finanziamenti dalle industrie coinvolte nel mondo delle scommesse e non dagli Stati. [Nature; Editorial]

Sarà pubblicato nel mese di febbraio sulla rivista Personality and Social Psychology l'articolo, uscito come preprint a settembre del 2017, che mostra come sia possibile programmare un algoritmo in grado di dedurre l'orientamento sessuale analizzando le foto profilo degli utenti di un social network. Autore della ricerca è lo psicologo di Stanford Michal Kosinski. Il suo articolo ha già suscitato molte critiche, soprattutto riguardanti la conclusione che la correlazione tra caratteristiche facciali e orientamento sessuale possa essere spiegato dagli ormoni assorbiti nell'utero materno. Intervistato dal giornalista di Vox Brian Resnick, Kosinski ha dichiarato che il suo obiettivo era di diffondere consapevolezza su quello che i sistemi di intelligenza artificiale sono già in grado di fare, per poter progettare delle strategie di difesa contro possibili abusi. [Vox; Brian Resnick]


Segui Scienza in rete
logo facebook logo twitter logo youtube logo soundcloud
Se non vuoi più ricevere la newsletter clicca qui

Con il sostegno di:
logo intesa
By:
logo zadig