fbpx La proposta della Commissione Europea per regolare l’IA | Scienza in rete

Regolare l'intelligenza artificiale: la proposta della Commissione Europea

Tempo di lettura: 7 mins

Crediti immagine: EFF Photos / Flickr. Licenza: CC BY 2.0.

Mercoledì la Commissione Europea ha presentato un quadro giuridico per regolare l’uso dell’intelligenza artificiale nell’Unione. Si tratta di una proposta che verrà valutata dal Consiglio d’Europa e dal Parlamento nei prossimi due anni e diventerà Regolamento non prima del 2023. Da quel momento, ciascuno degli stati membri dovrà adeguare le proprie leggi nazionali per rispettarne i contenuti.

L’approccio della Commissione è quello di regolare i sistemi di IA sulla base del contesto e dello scopo con cui vengono utilizzati. A questo scopo vengono definiti tre livelli di rischio, basso, medio e alto, e una quarta categoria definita di “rischio inaccettabile”, che contiene le applicazioni vietate. Tra queste ci sono i sistemi di social scoring, quegli algoritmi che raccolgono i dati digitali dei cittadini (per esempio i loro acquisti online) e li usano per calcolare un punteggio di affidabilità che può influenzare l’accesso all’istruzione o a strumenti di sostegno al reddito. In Cina esistono delle sperimentazioni in questo senso. Le altre due applicazioni che diventerebbero illegali se la proposta venisse accettata così com’è, sono quelle che manipolano i comportamenti delle persone sfruttando le loro vulnerabilità, soprattutto in campo politico, e l’utilizzo di sistemi di riconoscimento facciale in luoghi pubblici da parte delle forze dell’ordine.

L’uso di questa tecnologia da parte delle forze dell’ordine ha raccolto molte critiche negli ultimi anni e portato qualche cambiamento. Sono innumerevoli ormai gli episodi di discriminazione e di violazione dei diritti fondamentali connessi al riconoscimento facciale automatico. L’ultimo in ordine di tempo è quello che ha coinvolto Robert Williams, arrestato dalla polizia di Detroit il 9 gennaio 2020 nel vialetto di casa sua davanti alla moglie e alle figlie con l’accusa di aver rubato degli orologi in una gioielleria di lusso. Dopo aver trascorso la notte in cella, è stato interrogato e gli agenti gli hanno mostrato il video del furto. L’uomo nel video non era Williams: l’unica cosa che avevano in comune era essere afroamericani. Williams è stato rilasciato. La scorsa settimana, con l’aiuto della University of Michigan e della no profit ACLU, ha fatto causa al Detroit Police Department per aver violato il quarto emendamento alla costituzione degli Stati Uniti (che vieta perquisizioni e arresti immotivati e senza mandato) e chiede che il dipartimento non utilizzi più la tecnologia di riconoscimento facciale. Il documentario Coded Bias, di cui avevamo parlato due settimane fa, racconta la storia di uno dei primi studi che hanno dimostrato che questi sistemi sono meno efficaci sulle donne e le persone non bianche.

La decisione della Commissione di bandire questi sistemi sembra quindi rispondere alle richieste di tante organizzazioni e attivisti, ma è stata criticata perché prevede delle eccezioni, sia nell’utilizzo da parte delle istituzioni, per esempio nel caso della ricerca di bambini scomparsi o durante attacchi terroristici, che da parte di soggetti privati.

«Le eccezioni per i sistemi di sorveglianza statale guidati dall'intelligenza artificiale creeranno problemi ai diritti umani e ai difensori della privacy», scrive su The Conversation Bernd Carsten Stahl, direttore dello Observatory for Responsible Research and Innovation in ICT promosso dallo UK Engineering and Physical Sciences Research Council e professore alla De Montfort University.

L’organizzazione Algorithm Watch osserva che i rischi per i diritti fondamentali che le tecnologie di riconoscimento facciale comportano non sono limitati al loro utilizzo da parte delle forze dell’ordine. «Un fatto che la proposta non riflette a sufficienza».

Dello stesso avviso, in particolare riguardo l’uso del riconoscimento facciale in luoghi pubblici, è lo European Data Protection Supervisor, che in un comunicato stampa scrive: «Continueremo a sostenere un approccio più rigoroso al riconoscimento automatizzato negli spazi pubblici […] indipendentemente dal fatto che siano utilizzati in un contesto amministrativo o commerciale o da parte delle forze dell’ordine».

Un altro limite della proposta viene individuato nel linguaggio utilizzato per riferirsi alle tecnologie di riconoscimento facciale. La bozza della Commissione parla infatti di “sistemi di identificazione biometrica”, scegliendo la parola “identificazione” piuttosto che “riconoscimento”. Catelijne Muller, presidente dell’organizzazione indipendente ALLAI, scrive: «Molte tecnologie di riconoscimento biometrico non hanno lo scopo di identificare una persona, ma piuttosto di valutarne il comportamento (ad esempio studiando le caratteristiche del viso, le espressioni, il movimento degli occhi, la temperatura, la frequenza cardiaca, ecc.)», e aggiunge «sorprendentemente, questo tipo di riconoscimento biometrico è posto al secondo livello della "piramide del rischio", richiedendo semplicemente trasparenza sul suo utilizzo, mentre è altamente invadente e scientificamente discutibile. Dovrebbe essere molto più in alto nella piramide».

Tra le applicazioni che la proposta della Commissione considera ad alto rischio ci sono: valutazione automatica del merito creditizio, algoritmi per la selezione e gestione del personale, per l’accesso all’istruzione e per la valutazione degli esami, l’assistenza nella decisione dei giudici o nelle operazioni di polizia. In tutti questi ambiti sono ormai molti i casi documentati in cui gli algoritmi hanno causato discriminazione verso gruppi sociali minoritari, sia per provenienza geografica che per genere o condizioni socioeconomiche. Alle società che sviluppano questi sistemi e a quelle che li utilizzano è richiesto di provarne la sicurezza, di valutarne i rischi in diversi contesti, di fornire documentazioni che ne spieghi il funzionamento e di garantire la supervisione umana.

A questo proposito, Algorithm Watch fa notare che: «I sistemi di intelligenza artificiale classificati come ad alto rischio saranno soggetti all'autovalutazione da parte del fornitore, compresi i sistemi utilizzati per la polizia predittiva, il controllo della migrazione e la selezione del personale. A nostro avviso, è inaccettabile lasciare una valutazione così importante esclusivamente agli attori aziendali che hanno un grande interesse nell'implementazione di questi sistemi».

La proposta della Commissione è il primo tentativo di regolare l’impiego dell’IA in un unico quadro giuridico. Finora gli interventi per limitare i danni che questi strumenti possono causare avevano riguardato singoli casi o singole tecnologie.

La vicepresidente della Commissione Margrethe Vestager ha sottolineato che i rischi non sono da attribuire alla tecnologia in sé, ma piuttosto al suo ambito di applicazione, che può avere implicazioni etiche diverse a seconda dei casi. Tuttavia, l’Articolo 3 della proposta definisce un “sistema di intelligenza artificiale” come un software sviluppato con una lista di tecniche e di approcci dettagliati nel primo allegato (che include sia il machine learning che strumenti statistici più convenzionali).  A questo proposito, Virginia Dignum, professoressa al Department of Computing Science alla Umeå University in Svezia, fa notare: «L’intelligenza artificiale comprende diversi approcci, alcuni più controversi di altri, alcuni completamente trasparenti, deterministici e spiegabili, ma comunque invasivi. Preferirei che il regolamento si concentrasse semplicemente sulle proprietà o sui possibili impatti, piuttosto che sulle tecniche».

Il Regolamento proposto contiene importanti implicazioni per le grandi compagnie tecnologiche, che possono andare incontro a multe fino al 6% del loro fatturato a livello globale. Il Regolamento riguarda i cittadini dell’Unione Europea e tutte le compagnie che fanno affari in UE.

Anche dall’altra parte dell’Atlantico è stata una settimana importante per la regolamentazione dell’intelligenza artificiale. Lunedì Elisa Jilson, legale della Federal Trade Commission statunitense, ha pubblicato un articolo in cui ha richiamato l’attenzione sul fatto che esistono già delle leggi che possono essere utili per evitare che i sistemi automatici di assistenza alla decisione siano discriminatori e ingiusti. La FTC non ha voce in capitolo sull’operato delle agenzie governative o delle banche, ma può intervenire sulle società che vendono i software a questi soggetti. Ed è quello che intende fare. Scrive: «Supponiamo che uno sviluppatore di software dica ai clienti che il suo prodotto selezionerà i candidati per una nuova posizione lavorativa in maniera completamente imparziale, ma l'algoritmo è stato costruito con dati che non rappresentano la diversità etnica e di genere della società. Il risultato potrebbe essere un'azione legale da parte della FTC».

Se l’approccio europeo è più ambizioso di quello statunitense, quest’ultimo potrebbe portare a soluzioni concrete in tempi più brevi, visto il lungo percorso di discussione e negoziazione che la proposta europea ha davanti a sé.

Il punto debole di entrambi, scrive Will Douglas Heaven su MIT Technology Review, è quello di avere poco potere sull’operato dei governi e delle istituzioni pubbliche, ma conclude con una nota di ottimismo: «Gli annunci di questa settimana riflettono un enorme cambiamento a livello mondiale verso una seria regolamentazione dell'IA, una tecnologia che finora è stata sviluppata e implementata con poca supervisione».

Per ricevere questo contenuto in anteprima ogni settimana insieme a sei consigli di lettura iscriviti alla newsletter di Scienza in rete curata da Chiara Sabelli (ecco il link per l'iscrizione). Trovi qui il testo completo di questa settimana. Buona lettura, e buon fine settimana!

Iscriviti alla newsletter

Le notizie di scienza della settimana

 

No spam, potrai cancellare la tua iscrizione in qualsiasi momento con un click.

 

altri articoli

La rivoluzione di chip e sensori nello studio e approvazione di nuove terapie

Dati fisiologici o comportamentali  misurati attraverso dispositivi che possono essere portatili, indossabili, impiantabili o digeribili, ossia i biomarcatori digitali, e gli organi o tessuti “on a chip”, micro-dispositivi progettati per supportare tessuti e cellule viventi, imitando in vitro la fisiologia umana e le malattie, sono due tra gli strumenti più promettenti per il supporto agli studi clinici e preclinici: in questo articolo, Michela Moretti esplora le loro potenzialità e attuali limiti.

Crediti immagine: National Center for Advancing Translational Sciences/Flickr. Licenza: dominio pubblico

La pandemia di Covid 19 ha dato una svolta al dibattito sui percorsi per accelerare i tempi della ricerca e l’approvazione di nuove terapie, in particolare quelle che riguardano patologie ancora senza cura. Pur rimanendo prioritaria la necessità di fornire garanzie di sicurezza ed efficacia di un farmaco, è sempre più condivisa la volontà di trovare soluzioni che velocizzino tali iter. Gli sforzi delle istituzioni e degli enti regolatori - non senza difficoltà - per fornire indicazioni più precise, direttive certe e meno burocrazia sono stati e sono ancora numerosi.