fbpx La proposta della Commissione Europea per regolare l’IA | Scienza in rete
Covid-19/

Regolare l'intelligenza artificiale: la proposta della Commissione Europea

Tempo di lettura: 7 mins

Crediti immagine: EFF Photos / Flickr. Licenza: CC BY 2.0.

Mercoledì la Commissione Europea ha presentato un quadro giuridico per regolare l’uso dell’intelligenza artificiale nell’Unione. Si tratta di una proposta che verrà valutata dal Consiglio d’Europa e dal Parlamento nei prossimi due anni e diventerà Regolamento non prima del 2023. Da quel momento, ciascuno degli stati membri dovrà adeguare le proprie leggi nazionali per rispettarne i contenuti.

L’approccio della Commissione è quello di regolare i sistemi di IA sulla base del contesto e dello scopo con cui vengono utilizzati. A questo scopo vengono definiti tre livelli di rischio, basso, medio e alto, e una quarta categoria definita di “rischio inaccettabile”, che contiene le applicazioni vietate. Tra queste ci sono i sistemi di social scoring, quegli algoritmi che raccolgono i dati digitali dei cittadini (per esempio i loro acquisti online) e li usano per calcolare un punteggio di affidabilità che può influenzare l’accesso all’istruzione o a strumenti di sostegno al reddito. In Cina esistono delle sperimentazioni in questo senso. Le altre due applicazioni che diventerebbero illegali se la proposta venisse accettata così com’è, sono quelle che manipolano i comportamenti delle persone sfruttando le loro vulnerabilità, soprattutto in campo politico, e l’utilizzo di sistemi di riconoscimento facciale in luoghi pubblici da parte delle forze dell’ordine.

L’uso di questa tecnologia da parte delle forze dell’ordine ha raccolto molte critiche negli ultimi anni e portato qualche cambiamento. Sono innumerevoli ormai gli episodi di discriminazione e di violazione dei diritti fondamentali connessi al riconoscimento facciale automatico. L’ultimo in ordine di tempo è quello che ha coinvolto Robert Williams, arrestato dalla polizia di Detroit il 9 gennaio 2020 nel vialetto di casa sua davanti alla moglie e alle figlie con l’accusa di aver rubato degli orologi in una gioielleria di lusso. Dopo aver trascorso la notte in cella, è stato interrogato e gli agenti gli hanno mostrato il video del furto. L’uomo nel video non era Williams: l’unica cosa che avevano in comune era essere afroamericani. Williams è stato rilasciato. La scorsa settimana, con l’aiuto della University of Michigan e della no profit ACLU, ha fatto causa al Detroit Police Department per aver violato il quarto emendamento alla costituzione degli Stati Uniti (che vieta perquisizioni e arresti immotivati e senza mandato) e chiede che il dipartimento non utilizzi più la tecnologia di riconoscimento facciale. Il documentario Coded Bias, di cui avevamo parlato due settimane fa, racconta la storia di uno dei primi studi che hanno dimostrato che questi sistemi sono meno efficaci sulle donne e le persone non bianche.

La decisione della Commissione di bandire questi sistemi sembra quindi rispondere alle richieste di tante organizzazioni e attivisti, ma è stata criticata perché prevede delle eccezioni, sia nell’utilizzo da parte delle istituzioni, per esempio nel caso della ricerca di bambini scomparsi o durante attacchi terroristici, che da parte di soggetti privati.

«Le eccezioni per i sistemi di sorveglianza statale guidati dall'intelligenza artificiale creeranno problemi ai diritti umani e ai difensori della privacy», scrive su The Conversation Bernd Carsten Stahl, direttore dello Observatory for Responsible Research and Innovation in ICT promosso dallo UK Engineering and Physical Sciences Research Council e professore alla De Montfort University.

L’organizzazione Algorithm Watch osserva che i rischi per i diritti fondamentali che le tecnologie di riconoscimento facciale comportano non sono limitati al loro utilizzo da parte delle forze dell’ordine. «Un fatto che la proposta non riflette a sufficienza».

Dello stesso avviso, in particolare riguardo l’uso del riconoscimento facciale in luoghi pubblici, è lo European Data Protection Supervisor, che in un comunicato stampa scrive: «Continueremo a sostenere un approccio più rigoroso al riconoscimento automatizzato negli spazi pubblici […] indipendentemente dal fatto che siano utilizzati in un contesto amministrativo o commerciale o da parte delle forze dell’ordine».

Un altro limite della proposta viene individuato nel linguaggio utilizzato per riferirsi alle tecnologie di riconoscimento facciale. La bozza della Commissione parla infatti di “sistemi di identificazione biometrica”, scegliendo la parola “identificazione” piuttosto che “riconoscimento”. Catelijne Muller, presidente dell’organizzazione indipendente ALLAI, scrive: «Molte tecnologie di riconoscimento biometrico non hanno lo scopo di identificare una persona, ma piuttosto di valutarne il comportamento (ad esempio studiando le caratteristiche del viso, le espressioni, il movimento degli occhi, la temperatura, la frequenza cardiaca, ecc.)», e aggiunge «sorprendentemente, questo tipo di riconoscimento biometrico è posto al secondo livello della "piramide del rischio", richiedendo semplicemente trasparenza sul suo utilizzo, mentre è altamente invadente e scientificamente discutibile. Dovrebbe essere molto più in alto nella piramide».

Tra le applicazioni che la proposta della Commissione considera ad alto rischio ci sono: valutazione automatica del merito creditizio, algoritmi per la selezione e gestione del personale, per l’accesso all’istruzione e per la valutazione degli esami, l’assistenza nella decisione dei giudici o nelle operazioni di polizia. In tutti questi ambiti sono ormai molti i casi documentati in cui gli algoritmi hanno causato discriminazione verso gruppi sociali minoritari, sia per provenienza geografica che per genere o condizioni socioeconomiche. Alle società che sviluppano questi sistemi e a quelle che li utilizzano è richiesto di provarne la sicurezza, di valutarne i rischi in diversi contesti, di fornire documentazioni che ne spieghi il funzionamento e di garantire la supervisione umana.

A questo proposito, Algorithm Watch fa notare che: «I sistemi di intelligenza artificiale classificati come ad alto rischio saranno soggetti all'autovalutazione da parte del fornitore, compresi i sistemi utilizzati per la polizia predittiva, il controllo della migrazione e la selezione del personale. A nostro avviso, è inaccettabile lasciare una valutazione così importante esclusivamente agli attori aziendali che hanno un grande interesse nell'implementazione di questi sistemi».

La proposta della Commissione è il primo tentativo di regolare l’impiego dell’IA in un unico quadro giuridico. Finora gli interventi per limitare i danni che questi strumenti possono causare avevano riguardato singoli casi o singole tecnologie.

La vicepresidente della Commissione Margrethe Vestager ha sottolineato che i rischi non sono da attribuire alla tecnologia in sé, ma piuttosto al suo ambito di applicazione, che può avere implicazioni etiche diverse a seconda dei casi. Tuttavia, l’Articolo 3 della proposta definisce un “sistema di intelligenza artificiale” come un software sviluppato con una lista di tecniche e di approcci dettagliati nel primo allegato (che include sia il machine learning che strumenti statistici più convenzionali).  A questo proposito, Virginia Dignum, professoressa al Department of Computing Science alla Umeå University in Svezia, fa notare: «L’intelligenza artificiale comprende diversi approcci, alcuni più controversi di altri, alcuni completamente trasparenti, deterministici e spiegabili, ma comunque invasivi. Preferirei che il regolamento si concentrasse semplicemente sulle proprietà o sui possibili impatti, piuttosto che sulle tecniche».

Il Regolamento proposto contiene importanti implicazioni per le grandi compagnie tecnologiche, che possono andare incontro a multe fino al 6% del loro fatturato a livello globale. Il Regolamento riguarda i cittadini dell’Unione Europea e tutte le compagnie che fanno affari in UE.

Anche dall’altra parte dell’Atlantico è stata una settimana importante per la regolamentazione dell’intelligenza artificiale. Lunedì Elisa Jilson, legale della Federal Trade Commission statunitense, ha pubblicato un articolo in cui ha richiamato l’attenzione sul fatto che esistono già delle leggi che possono essere utili per evitare che i sistemi automatici di assistenza alla decisione siano discriminatori e ingiusti. La FTC non ha voce in capitolo sull’operato delle agenzie governative o delle banche, ma può intervenire sulle società che vendono i software a questi soggetti. Ed è quello che intende fare. Scrive: «Supponiamo che uno sviluppatore di software dica ai clienti che il suo prodotto selezionerà i candidati per una nuova posizione lavorativa in maniera completamente imparziale, ma l'algoritmo è stato costruito con dati che non rappresentano la diversità etnica e di genere della società. Il risultato potrebbe essere un'azione legale da parte della FTC».

Se l’approccio europeo è più ambizioso di quello statunitense, quest’ultimo potrebbe portare a soluzioni concrete in tempi più brevi, visto il lungo percorso di discussione e negoziazione che la proposta europea ha davanti a sé.

Il punto debole di entrambi, scrive Will Douglas Heaven su MIT Technology Review, è quello di avere poco potere sull’operato dei governi e delle istituzioni pubbliche, ma conclude con una nota di ottimismo: «Gli annunci di questa settimana riflettono un enorme cambiamento a livello mondiale verso una seria regolamentazione dell'IA, una tecnologia che finora è stata sviluppata e implementata con poca supervisione».

Per ricevere questo contenuto in anteprima ogni settimana insieme a sei consigli di lettura iscriviti alla newsletter di Scienza in rete curata da Chiara Sabelli (ecco il link per l'iscrizione). Trovi qui il testo completo di questa settimana. Buona lettura, e buon fine settimana!

Aiuta Scienza in Rete a crescere. Il lavoro della redazione, soprattutto in questi momenti di emergenza, è enorme. Attualmente il giornale è interamente sostenuto dall'Editore Zadig, che non ricava alcun utile da questa attività, se non il piacere di fare giornalismo scientifico rigoroso, tempestivo e indipendente. Con il tuo contributo possiamo garantire un futuro a Scienza in Rete.

E' possibile inviare i contributi attraverso Paypal cliccando sul pulsante qui sopra. Questa forma di pagamento è garantita da Paypal.

Oppure attraverso bonifico bancario (IBAN: IT78X0311101614000000002939 intestato a Zadig srl - UBI SCPA - Agenzia di Milano, Piazzale Susa 2)

altri articoli

Uno screening può aiutare a mantenere aperte le scuole? L'esperienza del Piemonte

Il programma di screening Scuola Sicura è stato avviato sperimentalmente nei primi tre mesi del 2021, in aggiunta alle correnti procedure di sorveglianza e contact tracing, per gli studenti iscritti alle classi seconde e terze delle scuole secondarie di primo grado della regione Piemonte. Si tratta di un lavoro di stretta collaborazione tra scuola e ASL per ridurre la trasmissione del contagio e concorrere a mantenere le scuole aperte: i primi risultati, che evidenziano le criticità cui far fronte, sono incoraggianti e dimostrano che un programma di screening nelle scuole può essere implementato a patto che venga effettuato in modo organizzato e che si ponga attenzione in particolare alle modalità di coinvolgimento di scuole e studenti, alle strategie di testing, all’organizzazione e al sistema informativo che lo deve sostenere.

Crediti immagine: School photo created by freepik - www.freepik.com

Un gruppo di cinque bambini dell’Istituto Nigra di Torino sono accompagnati dai loro genitori presso l’hot spot del poliambulatorio di Via Le Chiuse per eseguire un tampone per Covid-19. Non hanno sintomi e non sono contatti di caso, ma partecipano al programma di screening Scuola Sicura deliberato dalla Regione Piemonte a inizio 2021. Fanno parte del gruppo A della loro classe; la settimana prossima sarà testato il gruppo B e così via fino alla fine del mese.