newsletter finesettimana #24
logo Scienza in rete finesettimana #24
12 marzo 2021
a cura di Chiara Sabelli
Buon venerdì,
questa settimana parliamo della pressione a cui sono state sottoposte le ricercatrici nei primi sei mesi della pandemia divise tra compiti di cura della famiglia e lavoro, degli impatti del disastro nucleare di Fukushima di dieci anni fa sulla salute degli abitanti della zona, del tempo necessario perché i veicoli elettrici diventino più di quelli a benzina negli Stati Uniti, di un software per l'analisi di tracce incomplete di DNA utilizzato in ambito forense, della ritrattazione dell'articolo del 2018 che per primo aveva documentato l'esistenza delle particelle di Majorana e diamo gli ultimi aggiornamenti su COVID-19.
L'approfondimento di oggi riguarda la vicenda del licenziamento di due ricercatrici del gruppo di etica e intelligenza artificiale di Google per via di un articolo che denunciava i rischi connessi ai modelli statistici del linguaggio che apprendono da database di grandi dimensioni. L'articolo è stato presentato per la prima volta in pubblico questa settimana durante una conferenza sull'equità e la trasparenza dei sistemi di machine learning.
Buona lettura (per segnalare questa newsletter agli amici ecco il link per l'iscrizione)

SEI PEZZI BELLI
1 «Sull'orlo di un esaurimento nervoso». Un rapporto della NASEM documenta la pressione a cui la pandemia ha sottoposto le ricercatrici
Sin dall'inizio della pandemia ricercatori e politici hanno lanciato l'allarme: le donne avrebbero pagato il prezzo più alto in termini di fatica fisica e psicologica. In questo le ricercatrici non fanno eccezione. La National Academies of Sciences, Engineering, and Medicine ha curato un rapporto che raccoglie le testimonianze di ricercatrici a vari livelli di carriera riguardo i primi sei mesi della pandemia. Le parole delle ricercatrici sono estremamente toccanti e riguardano le difficoltà nell'assolvere contemporaneamente ai compiti di cura dei figli e a quelli accademici, in una continua alternanza dei ruoli, la paura di "rimanere indietro" e la sensazione di non essere state appoggiate dalle istituzioni per cui lavorano [Science]

2 Dieci anni fa la catastrofe nucleare di Fukushima
L'11 marzo del 2011 uno tsunami colpì la costa nordoccidentale del Giappone, causando 18 000 vittime e inghiottendo la centrale nucleare Fukushima Diichi. Un rapporto delle Nazioni Unite non attribuisce alcuna morte aggiuntiva derivante dall'esposizione della popolazione alle radiazioni, solo sei casi di cancro tra i lavoratori sono stati ricondotti all'incidente. Gli abitanti della zona vicino alla centrale furono esposti a livelli di radiazione da 10 o 100 volte inferiori rispetto a quelli di Chernobyl e dunque è possibile che gli effetti si vedranno nel lungo periodo. Ma l'evacuazione delle case, la contaminazione del suolo e delle acque, e i danni economici hanno avuto degli effetti sulla salute della popolazione [Le Monde]

3 Fra quanto tempo le auto elettriche domineranno le strade americane?
Dei 250 milioni di veicoli che oggi percorrono le strade degli Stati Uniti, meno dell'1% è elettrico. I produttori di automobili dicono che nel 2035 un quarto della loro produzione sarà elettrica, ma visto che i vecchi veicoli durano a lungo questo porterà la percentuale intorno al 13% e il 50% non sarà toccato neanche nel 2050, anno in cui Biden dice di voler raggiungere l'obiettivo di zero emissioni nette di gas serra. L'obiettivo potrebbe essere realizzato solo se la vendita di automobili a benzina venisse vietata a partire dal 2035 [The New York Times]

4 Due tribunali negli Stati Uniti chiedono di analizzare un algoritmo di analisi del DNA usato in ambito forense
Si tratta del software TrueAllele, commercializzato dalla società Cybergenetics, che processa tracce di DNA incomplete rinvenute sulla scena del crimine e calcola la probabilità che queste appartengano a una specifica persona. Finora l'algoritmo non è mai stato visto da nessuno, neanche gli autori delle pubblicazioni in cui ne è stata valutata l'accuratezza lo conoscono. Ora due tribunali, uno in Pennsylvania e l'altro in New Jersey, hanno chiesto alle procure che lo hanno utilizzato di consegnare il codice. Non verrà reso pubblico ma in principio gli avvocati della difesa potranno chiedere l'intervento di esperti che lo esaminino per capire se contiene errori o inconsistenze [The Markup]

5 Ritrattato un articolo del 2018 che dimostrava l'esistenza delle particelle di Majorana
Le particelle di Majorana sono un particolare tipo di fermioni la cui esistenza è stata ipotizzata per la prima volta da Ettore Majorana nel 1937. Le loro proprietà le hanno rese interessanti per il settore della computazione quantistica e Microsoft ha investito molto in questa tecnologia. La prima prova della loro esistenza era arrivata nel 2018 da un esperimento realizzato in un laboratorio di Microsoft in Olanda che aveva rilevato un particolare segnale nella resistenza elettrica di una guida di dimensioni nanometriche composta da una combinazione di materiale semiconduttore e superconduttore. I risultati erano stati pubblicati su Nature. Tuttavia lo scorso anno un altro gruppo di ricercatori aveva espresso dei dubbi sull'autenticità di quel segnale, chiedendo di rivalutare i dati e di ripetere le misure in altre condizioni sperimentali. La rivista aveva quindi emesso una "editorial expression of concern" e gli autori dell'articolo erano stati obbligati a rivedere le loro conclusioni. Questa procedura di revisione ha confermato i dubbi e ha portato alla ritrattazione dell'articolo perché "mancante di sufficiente rigore scientifico" [Nature]

6 Aggiornamenti COVID-19
   ×  EMA approva il vaccino Janssen (gruppo Johnson&Johnson) per l'uso in condizioni di emergenza [European Medicines Agency]
   ×  Danimarca, Norvegia e Islanda hanno sospeso le vaccinazioni con AstraZeneca per via delle indagini in corso in Danimarca su una serie di casi di embolia in persone che avevano ricevuto la prima dose. L'Italia, insieme ad altri paesi europei, ha bloccato solo le somministrazioni delle dosi appartenenti a uno specifico lotto. EMA ha dichiarato: il farmaco è efficace e sicuro, continuare con le somministrazioni durante le indagini [The Guardian]
   ×  Uno studio del King's College indica che ritardare il richiamo del vaccino Pfizer non è consigliabile per i pazienti oncologici [The Guardian]
   ×  I CDC autorizzano chi si è vaccinato a incontrarsi senza indossare la mascherina [Le Monde]
   ×  Le donne sembrano avere più effetti collaterali degli uomini dopo il vaccino [The New York Times]
   ×  Le donne incinte hanno un decorso della COVID-19 più grave di quelle non incinte [The Conversation]

PAPPAGALLI STOCASTICI E IL POTERE DELLE BIG TECH

Si è conclusa mercoledì la ACM Conference on Fairness, Accountability, and Transparency (FAccT), promossa dalla Association for Computing Machinery, durante la quale è stato presentato per la prima volta l’articolo “On the dangers of Stochastic Parrots”. L'articolo è all’origine del licenziamento delle ricercatrici Timnit Gebru prima e Margareth Mitchell poi da parte di Google, dove co-dirigevano il gruppo di etica e intelligenza artificiale.

I “pappagalli stocastici” cui si fa riferimento nel titolo, in inglese “stochastic parrots”, sono i cosiddetti large language models, i modelli statistici del linguaggio che si basano sull’apprendimento da grandi database di testi, presi prevalentemente da internet. Con questa espressione le autrici vogliono sottolineare che questi sistemi non hanno alcuna comprensione del significato delle parole o delle espressioni che generano, perché non sono costruiti per averlo, ma piuttosto individuano degli schemi verbali ricorrenti nei dati e li “ripetono”.

La notizia del licenziamento di Gebru il 3 dicembre ha avuto grande risalto nei media di tutto il mondo. Gebru infatti è una delle esponenti di maggior rilievo nel campo dell’etica dell’intelligenza artificiale, soprattutto riguardo ai diritti di inclusione delle minoranze e dei loro punti di vista nelle grandi società tecnologiche e nei sistemi di intelligenza artificiale che queste sviluppano. Gebru ha ottenuto nel 2017 un dottorato presso lo Stanford Artificial Intelligence Laboratory. La sua tesi è culminata in una pubblicazione sui Proceedings of the National Academy of Sciences in cui viene mostrato come l’analisi delle immagini delle auto parcheggiate fuori dalle abitazioni in diversi quartieri delle città americane, raccolte da Google Street View, permetta di inferire informazioni sulla composizione demografica e l’orientamento politico dei loro abitanti. Successivamente ha lavorato nel gruppo Fairness Transparency Accountability and Ethics in AI di Microsoft Research, ha fondato il gruppo Black in AI, che si impegna a favorire l’ingresso di studenti e ricercatori neri nel campo dell’intelligenza artificiale, ha promosso iniziative di formazione nel campo del machine learning nelle scuole superiori e nelle università africane, in particolare in Etiopia, il suo paese di origine, partecipando ad Addis Coder. Nel 2018 Gebru ha collaborato con Joy Buolmwini, allora studente di dottorato all’MIT media lab, al progetto Gender Shades, che ha mostrato come i sistemi di riconoscimento facciale sviluppati dalle maggiori società tecnologiche fatichino molto a identificare i volti di donne nere, mentre non hanno problemi con gli uomini bianchi (il motivo è che gli archivi di immagini su cui vengono allenati contengono più volti di uomini bianchi che di donne nere). Il progetto è stato raccontato nel documentario Coded Bias, uscito negli Stati Uniti nel settembre del 2020.

All’origine del licenziamento di Gebru, che Google fatto passare per dimissioni in questa lettera resa pubblica poco tempo dopo da Jeff Dean che dirige le divisioni Google Research e Google Health, c’è la richiesta della società di non sottoporre l’articolo in questione alla conferenza ACM FAccT oppure di cancellare il proprio nome dall’elenco degli autori (così come quello di tutti i dipendenti Google coinvolti). Secondo la società infatti l’articolo non raggiungeva il livello richiesto per la pubblicazione poiché ignorava una parte rilevante della letteratura scientifica.

L’articolo si concentra sulle conseguenze sociali dell’applicazione dei modelli statistici del linguaggio. Questi modelli sono alla base dei motori di ricerca, incluso quello usato da Google, dei sistemi per il riconoscimento vocale automatico, usati per esempio dagli assistenti come Google Home o Alexa, dai traduttori multilingue o dai chat bot.

Le autrici riflettono sull’impatto ambientale ed economico del training di questi modelli, sul rischio di rinforzare i punti di vista appartenenti ai gruppi egemonici nella società a discapito delle minoranze, che sono poco rappresentate nei dati su cui questi sistemi vengono allenati, esattamente come accade nei sistemi di riconoscimento facciale.

Secondo Google le autrici non fanno riferimento, ad esempio, a una serie di studi che propongono delle tecniche di training a basse emissioni, attraverso l’utilizzo di hardware e software più efficienti.

Il licenziamento di Gebru ha avuto una serie di conseguenze importanti.

Pochi giorni dopo la notizia, il gruppo Google Walk Out ha pubblicato una lettera #IStandWithTimnit in cui chiedeva alla società di chiarire l’accaduto sia internamente che esternamente, sottolineando che Gebru era una delle poche donne di colore impiegate dalla società (solo l’1,6% dei dipendenti Google appartiene a questa categoria) e una delle poche ricercatrici che esercitava pressione dall’interno dell’industria tecnologica per garantire lo sviluppo di sistemi di intelligenza artificiale etici ed inclusivi. A oggi la lettera è stata firmata da quasi 2700 dipendenti di Google e oltre 4300 accademici.

Google Walk Out è un gruppo nato a novembre 2018 quando aveva invitato i dipendenti e i fornitori di Google a uscire dai propri uffici per protestare contro una cultura aziendale caratterizzata da una gestione delle denunce di molestie sessuali troppo timida, dalla mancanza di trasparenza e da comportamenti discriminatori verso gruppi minoritari (e ancor più verso le cosiddette minoranze intersezionali, gruppi di persone che hanno caratteristiche, come etnia, religione, disabilità, identità di genere non binaria, classe sociale o aspetto fisico, ciascuna delle quali è singolarmente oggetto di discriminazione). A quella iniziativa avevano partecipato oltre 20 000 persone in 50 città americane.

Pochi giorni fa, poi, Google Walk Out ha pubblicato un’altra petizione diffusa sui social media con l’hashtag #MakeAIEthical, in cui chiede:

  • alle conferenze di intelligenza artificiale di rifiutare la sponsorizzazione di Google e di non accettare articoli modificati dai legali delle società tecnologiche
  • alle università di non accettare fondi da Google finché la compagnia non si impegnerà a rispettare standard minimi di trasparenza e integrità
  • ai ricercatori di rifiutare proposte di lavoro provenienti da Google e allo stato americano di potenziare la protezione dei whistleblower del mondo tecnologico.

La conferenza ACM FAccT aveva deciso autonomamente già il 26 febbraio di sospendere il proprio legame con Google e cancellarlo dalla lista degli sponsor, che comprende tra gli altri Facebook AI, DeepMind, OpenAI, IBM. La decisione era stata motivata dal licenziamento di Margareth Mitchell avvenuto il 19 febbraio. Mitchell è stata estromessa dai suoi account aziendali dopo aver inviato all’ufficio pubbliche di relazione di Google questa lettera in cui esprimeva il suo dissenso verso il licenziamento di Gebru, che lei stessa aveva chiamato a Google, descrivendo le implicazioni più ampie di quella decisione per lo sviluppo di un’intelligenza artificiale basata su principi etici.

Google da parte sua ha cercato di rimediare avviando un processo di cambiamento delle procedure di revisione degli articoli scientifici prodotti dai propri ricercatori e nominando Mariana Choak, una delle poche donne nere in posizione apicale nella società, a coordinare questa attività. Tuttavia molti giudicano questa reazione ampiamente insufficiente rispetto all’accaduto.

Ma qual è il contenuto dell’articolo? Si tratta sostanzialmente di una revisione della letteratura riguardante i risvolti economici, sociali ed etici dei large language models. Per modelli statistici di linguaggio si intende sistemi in grado di prevedere quale espressione (lettera, parola, o frase) è più probabile che appaia in una certa posizione all’interno o alla fine di un testo. Nel primo numero di questa newsletter avevamo parlato dell’ultimo generatore di linguaggio naturale sviluppato dalla società OpenAI, GPT-3, che ricevendo come input il cosiddetto prompt restituisce un testo scritto che risponde a una domanda o semplicemente prosegue il discorso. GPT-3 è un esempio di large language model, ma negli ultimi due anni ne sono stati sviluppati molti che vengono allenati su campioni di dati grandi centinaia di gigabyte e usano centinaia o addirittura migliaia di miliardi di parametri per funzionare, come nel caso di Switch-C, l’ultimo algoritmo sviluppato da Google Brain.

Le autrici analizzano tre aspetti critici che derivano dall’utilizzo di questi sistemi, e che rischiano di essere aggravati dalla tendenza a sviluppare modelli ancora più grandi di quelli disponibili ora.

Il primo aspetto critico è l'impatto ambientale di questi sistemi. In media una persona emette 5 tonnellate di CO2 ogni anno, mentre l’addestramento di un modello di linguaggio della famiglia dei Transformer (reti neurali con architettura particolare) comporta l’emissione di 284 tonnellate di CO2. L’addestramento del sistema utilizzato all’interno del motore di ricerca di Google, chiamato BERT, comporta invece l’emissione della stessa quantità di CO2 emessa da un volo aereo da una costa all’altra degli Stati Uniti. Le autrici osservano che i cambiamenti climatici causati dall’emissione di gas serra hanno maggiore impatto su territori e popolazione che beneficiano molto meno di questi sistemi rispetto ai paesi che li sviluppano e li utilizzano, semplicemente perché parlano lingue che raramente sono incluse in questi modelli e non hanno i mezzi finanziari per poter avere accesso ai dispositivi che sfruttano queste tecnologie (gli assistenti come Google Home o Alexa). Si chiedono poi se l’aumento delle dimensioni di questi modelli, e quello conseguente in termini di emissioni, è giustificato da un guadagno in termini di accuratezza e concludono che la risposta a questa domanda raramente viene considerata negli articoli scientifici.

Il secondo problema che considerano potrebbe essere sintetizzato con l'espressione "tanti dati ma pochi punti di vista". Le grandi dimensioni dei database di testi su cui questi modelli di linguaggio vengono allenati non garantiscono inclusione. Prendiamo il caso di GPT-3: l’apprendimento è basato su una versione filtrata del database Common Crawl, che percorre ogni mese internet sulla base dei collegamenti tra le pagine e costruisce un archivio dei testi contenuti. Il filtro è costruito in modo che selezioni i contenuti di Wikipedia, Reddit oltre a quelli estratti da libri. Succede quindi che i punti di vista più rappresentati siano quelli degli utenti di Wikipedia, di cui solo l’8%-9% sono donne, e di Reddit, prevalentemente maschi bianchi e giovani residenti nelle aree urbane degli Stati Uniti. In generale i testi raccolti con la tecnica del crawling hanno una distorsione: le voci dissonanti tenderanno a essere meno collegate a quelle dominanti e dunque meno raggiungibili seguendo i collegamenti tra le pagine in rete.

Come conseguenza questi sistemi incorporano nei loro output diversi tipi di pregiudizi diretti verso i gruppi meno rappresentati nei dataset di allenamento e ancora di più verso i gruppi che possiedono più di una tra le caratteristiche discriminate (le cosiddette minoranze intersezionali). Le autrici però osservano che la valutazione di queste distorsioni non può essere facilmente automatizzata, ma piuttosto deve essere realizzata caso per caso considerando il tipo di applicazione e assumendo il punto di vista di diversi gruppi sociali. I limiti dei sistemi automatici di auditing degli algoritmi sono stati messi in evidenza anche da altri osservatori.

Allo stesso modo l’idea di depurare i dati dai contenuti “tossici” i dati su cui i sistemi vengono allenati comporta dei rischi. Il database Colossal Clean Crawled è ottenuto da Common Crawl cancellando le pagine che contengono una o più delle 400 parole contenute in una lista standard di parole oscene, violente e offensive. La lista contiene prevalentemente parole riferite al sesso, insieme ad alcune espressioni razziste e del suprematismo bianco. Se questa operazione permette di eliminare con una certa efficienza le pagine di siti pornografici o contenenti discorsi d’odio, con altrettanta efficienza cancellerà le pagine web frequentate dalla comunità LGBTQ e questo avrà come conseguenza l’esclusione del punto di vista di questo, come di altri gruppi marginalizzati.

Il secondo aspetto problematico denunciato nell'articolo riguarda il fatto che generare linguaggio non vuol dire comprenderne il significato. Essere in grado di generare testi che appaiono fluidi e verosimili non equivale ad averne compreso il significato. Questa è una conclusione abbastanza condivisa da diversi esperti (ad esempio qui) e le autrici si chiedono dunque se il fatto che questi modelli con miliardi di parametri e centinaia di gigabyte di dati da cui apprendere riescano a passare dei test pensati per valutare il livello di comprensione del significato del linguaggio sia un passo avanti o invece richieda una pausa per capire se questa è la direzione in cui l’area di ricerca deve proseguire oppure no.

Le autrici dunque fanno delle proposte per curare alcuni di questi limiti. La più interessante tra queste è quella di usare dataset di allenamento commentati e documentati, ispirandosi alle tecniche delle scienze archivistiche, e limitarsi a dimensioni che possano essere curate in questo modo. Questo lavoro di documentazione dovrebbe essere preso in considerazione nell’analisi dei costi preliminare a qualunque tipo di progetto.

 

Per suggerimenti e commenti scrivere a: [email protected]
Per donare alla Newsletter clicca qui
Se invece non vuoi più ricevere la newsletter clicca qui
PS: per tenere Scienza in rete fuori dallo spam aggiungi la nostra mail [email protected] tuoi contatti (per Gmail, vai a contacts.google.com e clicca su "crea contatto"). Se Scienza in rete finisce nelle promozioni di Gmail, trascinala nella casella della tua posta in entrata per non perdere mai un numero!
Segui Scienza in rete
logo facebook logo twitter logo twitter logo twitter

By:
logo nuovo zadig