newsletter finesettimana #25
logo Scienza in rete finesettimana #29
24 aprile 2021
a cura di Chiara Sabelli
Buon sabato,
questa settimana dedichiamo la newsletter al cambiamento climatico, in occasione della giornata della Terra, del Leaders Summit On Climate Change organizzato dalla Casa Bianca e dell'uscita del rapporto annuale sullo stato del clima in Europa realizzato dal Copernicus Climate Service, e diamo gli ultimi aggiornamenti su Covid-19.
Approfondiamo poi la proposta della Commissione Europea per la regolamentazione dell'intelligenza artificiale pubblicata mercoledì, considerando anche le reazioni che ha suscitato tra gli esperti e gli attivisti.
Buona lettura (per segnalare questa newsletter agli amici ecco il link per l'iscrizione)

SEI PEZZI BELLI
Il summit sul clima organizzato da Biden il 22 e 23 aprile ha segnato il rientro degli Stati Uniti nella lotta al cambiamento climatico, nonostante i problemi di connessione che non hanno risparmiato i 40 leader riuniti virtualmente da tutto il mondo.

1 L'Europa non è arrivata impreparata al summit di Biden: entro il 2030 riduzione delle emissioni di CO2 del 55% rispetto al 1990
La decisione è stata raggiunta mercoledì dopo mesi di discussioni e formalizzata in una legge sul clima che dovrà essere firmata dal Consiglio Europeo e dal Parlamento. Traccia la traiettoria per raggiungere zero emissioni nette nel 2050, mettendo l'Unione Europea al primo posto nel mondo in termini di ambizioni ecologiche. L'obiettivo per ora è formulato a livello collettivo, senza dettagliare il contributo dei singoli stati [Le Monde]

2 L'obiettivo della Cina di raggiungere zero emissioni nette entro il 2060 è "ampiamente coerente" con gli obiettivi dell'accordo di Parigi
È la conclusione di una nuova ricerca pubblicata su Science. I ricercatori hanno stimato che l'impegno della Cina a raggiungere zero emissioni nette di CO2 entro il 2060 raggiungendo il picco nel 2030, come annunciato a settembre del 2020, è "ampiamente coerente" con l'obiettivo di limitare il riscaldamento globale a 1,5 °C rispetto a livelli pre-industriali. Tuttavia, non tutti i percorsi che conducono a questo obiettivo sono ugualmente validi. È necessario infatti che entro il 2050 la Cina imponga tagli radicali sia alle sue emissioni di CO2 che a quelle di altri gas a effetto serra, come metano e ossidi di azoto [Carbon Brief]

3 Gli Stati Uniti si sono impegnati a ridurre le emissioni di CO2 tra del 50-52% rispetto ai livelli del 2005 entro il 2030
Si tratta dell'obiettivo più ambizioso mai dichiarato dagli Stati Uniti, il secondo paese al mondo dopo la Cina per emissioni di CO2. Nel 2015 Obama aveva puntato a una riduzione di circa il 40% entro il 2030, poi i cinque anni di negazionismo di Trump. Il piano di investimenti infrastrutturali annunciato da Biden con una dotazione finanziaria di 2 000 miliardi di dollari, avrà un ruolo fondamentale in questo processo. Tuttavia, gli impegni depositati dai diversi paesi in vista della COP26 di Glasgow non sono ancora sufficienti a rispettare i target fissati dall'accordo di Parigi [Vox]

4 Uno dei punti più delicati resta quello della finanza climatica
La crisi economica causata dalla pandemia rischia di far rivedere al ribasso il contributo dei paesi ricchi al Green Climate Fund. I paesi in via di sviluppo hanno bisogno di quei fondi per affrontare le conseguenze del cambiamento climatico e anche le loro economie sono state messe a dura prova dalla pandemia, sia direttamente che indirettamente, attraverso la forte riduzione delle rimesse provenienti dall'estero. Il settore privato può fare la sua parte, ma non può sostituirsi a quello pubblico [The Guardian]

5 Il ruolo dei sistemi di monitoraggio del clima nelle politiche di contrasto al riscaldamento globale
Giovedì il Copernicus Climate Change Service ha pubblicato il nuovo rapporto sullo stato del clima in Europa, che documenta, tre le altre cose, che il 2020 è stato l'anno più caldo da quando sono cominciate le misurazioni. Ma quale ruolo hanno i sistemi di monitoraggio del clima nel tracciare le politiche di mitigazione e adattamento degli stati? Lo spiega Jean-Noël Thépaut, direttore del programma Copernicus allo European Centre for Medium-Range Weather Forecast, in un intervista a Politico [Politico]

6 Aggiornamenti COVID-19
   ×  Giovedì sono cominciate in Europa le somministrazioni del vaccino monodose prodotto da Johnson&Johnson [The Guardian]
   ×  Venerdì i CDC americani hanno espresso parere positivo alla ripresa delle vaccinazioni con Johnson&Johnson, dopo lo stop iniziato il 13 aprile [The New York Times]
   ×  Martedì EMA ha confermato che anche per il vaccino Johnson&Johnson i benefici superano i rischi, anche considerando i casi riportati di una rara forma di trombosi associata a piastrinopenia che sono stati inclusi tra gli effetti collaterali del farmaco [EMA]
   ×  Venerdì EMA ha ribadito che i benefici del vaccino AstraZeneca superano i rischi, ma ha dato più dettagli sul bilancio rischi-benefici per fasce di età. Ha confermato che la seconda dose deve essere somministrata tra 4 e 12 settimane dopo la prima [EMA]
   ×  L'esplosione dei contagi in India sorprende gli scienziati [Nature]
   ×  Gli ECDC hanno aggiornato le linee guida sui comportamenti raccomandati ai cittadini completamente vaccinati [ECDC]
   ×  Il rapporto dei CDC sui casi di infezione dopo i vaccini, spiegato bene [Slate]
   ×  È stato pubblicato su Nature uno studio sulle caratteristiche della sindrome post Covid-19 condotto su 73 000 persone infettate tra marzo e novembre 2020 negli Stati Uniti [The New York Times]

REGOLARE L'INTELLIGENZA ARTIFICIALE: LA PROPOSTA DELLA COMMISSIONE EUROPEA

Mercoledì la Commissione Europea ha presentato un quadro giuridico per regolare l’uso dell’intelligenza artificiale nell’Unione. Si tratta di una proposta che verrà valutata dal Consiglio d’Europa e dal Parlamento nei prossimi due anni e diventerà Regolamento non prima del 2023. Da quel momento, ciascuno degli stati membri dovrà adeguare le proprie leggi nazionali per rispettarne i contenuti.

L’approccio della Commissione è quello di regolare i sistemi di IA sulla base del contesto e dello scopo con cui vengono utilizzati. Vengono definiti tre livelli di rischio, basso, medio e alto, e una quarta categoria definita di “rischio inaccettabile”, che contiene le applicazioni vietate. Tra queste ci sono i sistemi di social scoring, quegli algoritmi che raccolgono i dati digitali dei cittadini (per esempio i loro acquisti online) e li usano per calcolare un punteggio di affidabilità che può influenzare l’accesso all’istruzione o a strumenti di sostegno al reddito. In Cina esistono delle sperimentazioni in questo senso. Le altre due applicazioni che diventerebbero illegali se la proposta venisse accettata così com’è, sono quelle che manipolano i comportamenti delle persone sfruttando le loro vulnerabilità, soprattutto in campo politico, e l’utilizzo di sistemi di riconoscimento facciale in luoghi pubblici da parte delle forze dell’ordine.

L’uso di questa tecnologia da parte delle forze dell’ordine ha raccolto molte critiche negli ultimi anni e portato qualche cambiamento. Sono innumerevoli ormai gli episodi di discriminazione e di violazione dei diritti fondamentali connessi al riconoscimento facciale automatico. L’ultimo in ordine di tempo è quello che ha coinvolto Robert Williams, arrestato dalla polizia di Detroit il 9 gennaio 2020 nel vialetto di casa sua davanti alla moglie e alle figlie con l’accusa di aver rubato degli orologi in una gioielleria di lusso. Dopo aver trascorso la notte in cella, è stato interrogato e gli agenti gli hanno mostrato il video del furto. L’uomo nel video non era Williams: l’unica cosa che avevano in comune era essere afroamericani. Williams è stato rilasciato. La scorsa settimana, con l’aiuto della University of Michigan e della no profit ACLU, ha fatto causa al Detroit Police Department per aver violato il quarto emendamento alla costituzione degli Stati Uniti (che vieta perquisizioni e arresti immotivati e senza mandato) e chiede che il dipartimento non utilizzi più la tecnologia di riconoscimento facciale. Il documentario Coded Bias, di cui avevamo parlato due settimane fa, racconta la storia di uno dei primi studi che hanno dimostrato che questi sistemi sono meno efficaci sulle donne e le persone non bianche.

La decisione della Commissione di bandire questi sistemi sembra quindi rispondere alle richieste di tante organizzazioni e attivisti, ma è stata criticata perché prevede delle eccezioni, sia nell’utilizzo da parte delle istituzioni, per esempio nel caso della ricerca di bambini scomparsi o durante attacchi terroristici, che da parte di soggetti privati.

«Le eccezioni per i sistemi di sorveglianza statale guidati dall'intelligenza artificiale creeranno problemi ai diritti umani e ai difensori della privacy», scrive su The Conversation Bernd Carsten Stahl, direttore dello Observatory for Responsible Research and Innovation in ICT promosso dallo UK Engineering and Physical Sciences Research Council e professore alla De Montfort University.

L’organizzazione Algorithm Watch osserva che i rischi per i diritti fondamentali che le tecnologie di riconoscimento facciale comportano non sono limitati al loro utilizzo da parte delle forze dell’ordine. «Un fatto che la proposta non riflette a sufficienza».

Dello stesso avviso, in particolare riguardo l’uso del riconoscimento facciale in luoghi pubblici, è lo European Data Protection Supervisor, che in un comunicato stampa scrive: «Continueremo a sostenere un approccio più rigoroso al riconoscimento automatizzato negli spazi pubblici […] indipendentemente dal fatto che siano utilizzati in un contesto amministrativo o commerciale o sa parte delle forze dell’ordine».

Un altro limite della proposta viene individuato nel linguaggio utilizzato per riferirsi alle tecnologie di riconoscimento facciale. La bozza della Commissione parla infatti di “sistemi di identificazione biometrica”, scegliendo la parola “identificazione” piuttosto che “riconoscimento”. Catelijne Muller, presidente dell’organizzazione indipendente ALLAI, scrive: «Molte tecnologie di riconoscimento biometrico non hanno lo scopo di identificare una persona, ma piuttosto di valutarne il comportamento (ad esempio studiando le caratteristiche del viso, le espressioni, il movimento degli occhi, la temperatura, la frequenza cardiaca, ecc.)», e aggiunge «sorprendentemente, questo tipo di riconoscimento biometrico è posto al secondo livello della "piramide del rischio", richiedendo semplicemente trasparenza sul suo utilizzo, mentre è altamente invadente e scientificamente discutibile. Dovrebbe essere molto più in alto nella piramide».

Tra le applicazioni che la proposta della Commissione considera ad alto rischio ci sono: valutazione automatica del merito creditizio, algoritmi per la selezione e gestione del personale, per l’accesso all’istruzione e per la valutazione degli esami, l’assistenza nella decisione dei giudici o nelle operazioni di polizia. In tutti questi ambiti sono ormai molti i casi documentati in cui gli algoritmi hanno causato discriminazione verso gruppi sociali minoritari, sia per provenienza geografica che per genere o condizioni socioeconomiche. Alle società che sviluppano questi sistemi e a quelle che li utilizzano è richiesto di provarne la sicurezza, di valutarne i rischi in diversi contesti, di fornire documentazioni che ne spieghi il funzionamento e di garantire la supervisione umana.

A questo proposito, Algorithm Watch fa notare che: «I sistemi di intelligenza artificiale classificati come ad alto rischio saranno soggetti all'autovalutazione da parte del fornitore, compresi i sistemi utilizzati per la polizia predittiva, il controllo della migrazione e la selezione del personale. A nostro avviso, è inaccettabile lasciare una valutazione così importante esclusivamente agli attori aziendali che hanno un grande interesse nell'implementazione di questi sistemi».

La proposta della Commissione è il primo tentativo di regolare l’impiego dell’IA in un unico quadro giuridico. Finora gli interventi per limitare i danni che questi strumenti possono causare avevano riguardato singoli casi o singole tecnologie.

La vicepresidente della Commissione Margrethe Vestager ha sottolineato che i rischi non sono da attribuire alla tecnologia in sé, ma piuttosto al suo ambito di applicazione, che può avere implicazioni etiche diverse a seconda dei casi. Tuttavia, l’Articolo 3 della proposta definisce un “sistema di intelligenza artificiale” come un software sviluppato con una lista di tecniche e di approcci dettagliati nel primo allegato (che include sia il machine learning che strumenti statistici più convenzionali).  A questo proposito, Virginia Dignum, professoressa al Department of Computing Science alla Umeå University in Svezia, fa notare: «L’intelligenza artificiale comprende diversi approcci, alcuni più controversi di altri, alcuni completamente trasparenti, deterministici e spiegabili, ma comunque invasivi. Preferirei che il regolamento si concentrasse semplicemente sulle proprietà o sui possibili impatti, piuttosto che sulle tecniche».

Il Regolamento proposto contiene importanti implicazioni per le grandi compagnie tecnologiche, che possono andare incontro a multe fino al 6% del loro fatturato a livello globale. Il Regolamento riguarda i cittadini dell’Unione Europea e tutte le compagnie che fanno affari in UE.

Anche dall’altra parte dell’Atlantico è stata una settimana importante per la regolamentazione dell’intelligenza artificiale. Lunedì Elisa Jilson, legale della Federal Trade Commission statunitense, ha pubblicato un articolo in cui ha richiamato l’attenzione sul fatto che esistono già delle leggi che possono essere utili per evitare che i sistemi automatici di assistenza alla decisione siano discriminatori e ingiusti. La FTC non ha voce in capitolo sull’operato delle agenzie governative o delle banche, ma può intervenire sulle società che vendono i software a questi soggetti. Ed è quello che intende fare. Scrive: «Supponiamo che uno sviluppatore di software dica ai clienti che il suo prodotto selezionerà i candidati per una nuova posizione lavorativa in maniera completamente imparziale, ma l'algoritmo è stato costruito con dati che non rappresentano la diversità etnica e di genere della società. Il risultato potrebbe essere un'azione legale da parte della FTC».

Se l’approccio europeo è più ambizioso di quello statunitense, quest’ultimo potrebbe portare a soluzioni concrete in tempi più brevi, vista il lungo percorso di discussione e negoziazione che la proposta europea ha davanti a sé.

Il punto debole di entrambi, scrive Will Douglas Heaven su MIT Technology Review, è quello di avere poco potere sull’operato dei governi e delle istituzioni pubbliche, ma conclude con una nota di ottimismo: «Gli annunci di questa settimana riflettono un enorme cambiamento a livello mondiale verso una seria regolamentazione dell'IA, una tecnologia che finora è stata sviluppata e implementata con poca supervisione».


Per suggerimenti e commenti scrivere a: [email protected]
Per donare alla Newsletter clicca qui
Se invece non vuoi più ricevere la newsletter clicca qui
PS: per tenere Scienza in rete fuori dallo spam aggiungi la nostra mail [email protected] tuoi contatti (per Gmail, vai a contacts.google.com e clicca su "crea contatto"). Se Scienza in rete finisce nelle promozioni di Gmail, trascinala nella casella della tua posta in entrata per non perdere mai un numero!
Segui Scienza in rete
logo facebook logo twitter logo twitter logo twitter

By:
logo nuovo zadig