fbpx Cosa dice il Digital Services Act approvato dal Parlamento Europeo | Scienza in rete

Cosa dice il Digital Services Act approvato dal Parlamento europeo

Primary tabs

Immagine di Huzaifa Abedeen (CC BY-SA 4.0)

Tempo di lettura: 6 mins

All’alba di sabato 23 aprile il Parlamento europeo insieme al Consiglio dell’Unione Europea ha pubblicato il suo rapporto sul Digital Services Act (DSA), il regolamento proposto un anno fa dalla Commissione europea per regolare i servizi digitali che agiscono come intermediari tra i cittadini dell’Unione e prodotti, contenuti o servizi. Si tratta delle piattaforme per gli acquisti online, dei social network o dei motori di ricerca. Nell’ambito del DSA rientra anche l’utilizzo di algoritmi da parte delle istituzioni pubbliche, come forze dell’ordine, tribunali, amministrazioni e servizi sanitari.

«Insieme a Dragoş Tudorache abbiamo lavorato per inserire nella bozza i punti su cui c’era già un forte accordo», ha dichiarato Brando Benifei, europarlamentare del Partito Democratico durante l’AI summit organizzato da POLITICO poche ore prima che il documento venisse pubblicato. Benifei è relatore della proposta di regolamento insieme all’eurodeputato rumeno Tudorache del gruppo liberale Renew Europe.

La novità più grande introdotta dal Parlamento è la messa al bando dei sistemi di polizia predittiva. «Ci sono altri punti su cui non abbiamo raggiunto un accordo ma che intendiamo discutere in questa ultima fase di revisione. Tra questi c’è la possibilità di introdurre ulteriori restrizioni sull’uso di algoritmi per la sorveglianza in luoghi pubblici». Benifei si riferisce all’uso di tecnologie biometriche per il riconoscimento facciale, un argomento che già un anno fa era stato molto controverso. Gli attivisti per i diritti digitali avevano infatti criticato la scelta del termine “identificazione” al posto di “riconoscimento”. La prima bozza prevedeva infatti che le forze dell’ordine non potessero usare sistemi di sorveglianza negli spazi pubblici per individuare per esempio persone sospettate di aver commesso un crimine, ma lasciava spazio alla possibilità di usarli per riconoscere comportamenti anomali allo scopo di individuare e sventare attentati o atti di violenza.

«La scelta di usare “identificazione” e “non riconoscimento” è motivata dal criterio per cui gli utilizzi vietati sono solo quelli che non presentano, allo stato attuale, alcun potenziale beneficio», ha risposto Kilian Gross, responsabile dello sviluppo e del coordinamento delle politiche in materia di intelligenza artificiale all’interno del direttorato generale su reti di comunicazione, contenuti e tecnologie della Commissione. «Per esempio, gli algoritmi che permettono il riconoscimento delle emozioni possono essere utili a persone con disabilità visive per interagire meglio con la loro controparte».

Gross ha poi ribadito che questa scelta è in linea con l’impianto generale del regolamento che prevede la classificazione degli algoritmi in base al rischio che il loro uso pone per la salute, la sicurezza e i diritti fondamentali dei cittadini dell’Unione. «Per esempio, l’impiego di algoritmi per il riconoscimento delle emozioni nella selezione del personale è ad alto rischio perché contribuisce a decisioni che hanno un grande impatto sulla vita delle persone e dunque deve essere vigilato con la massima attenzione».

Questo approccio, secondo Gross, garantisce che il regolamento difenda i diritti fondamentali dei cittadini favorendo allo stesso tempo l’innovazione digitale.

Secondo Benifei un altro elemento centrale per favorire l’innovazione è quello di evitare l’incertezza legale. «Per questo abbiamo cercato di allineare il DSA con il GDPR», il regolamento sulla gestione e l’elaborazione dei dati personali promulgato nel 2016.

Restano vietate tecniche subliminali per manipolare il comportamento degli utenti online, l’utilizzo da parte delle autorità pubbliche di sistemi di social scoring, l’impiego di algoritmi di profilazione basati su religione, origine geografica, disabilità, età e orientamento sessuale per regolare l’accesso a servizi e beni pubblici o privati.

L’altro intervento dei correlatori ha riguardato la classificazione di ulteriori utilizzi dell’IA nella categoria di rischio alto, dettagliata nell’articolo 6 della norma e nell’allegato 3. Saranno vietati algoritmi «destinati a essere utilizzati dai bambini in modi che hanno un impatto significativo sul loro sviluppo personale, cognitivo o emotivo», come la pubblicità o l’istruzione personalizzata. «I bambini sono una categoria particolarmente vulnerabile, i sistemi di IA utilizzati per influenzare il loro sviluppo devono essere considerati ad alto rischio» si legge nella dichiarazione che conclude il rapporto firmato da Benifei e Tudorache.

Alla categoria di sistemi ad alto rischio, il rapporto propone di aggiungere anche «i sistemi di IA utilizzati da candidati o partiti per influenzare i voti nelle elezioni locali, nazionali o europee e quelli utilizzati per contare tali voti», perché la loro portata è tale da permettere di influenzare il funzionamento stesso della nostra democrazia. Lo stesso vale per gli algoritmi utilizzati per il triage dei pazienti in pronto soccorso, per classificare le chiamate di emergenza, per stabilire la priorità negli interventi di primo soccorso da parte di personale sanitario, vigili del fuoco o forze dell’ordine e per determinare l'idoneità all'assicurazione sanitaria e sulla vita. L’ultimo gruppo aggiunto alla categoria di rischio alto è quello dei sistemi di IA utilizzati per produrre, sulla base di un input limitato, testi che sembrino autenticamente scritti da esseri umani oppure quelli capaci di generare i cosiddetti deep fake audio o video.

I requisiti del regolamento sono più stringenti per le cosiddette very large online platforms (VLOPs) e very large online search engines (VLOEs), cioè le piattaforme e i motori di ricerca con oltre 45 milioni di utenti attivi al mese nell’Unione Europea, come Meta e Google.

Alle grandi piattaforme digitali e ai grandi motori di ricerca, sarà richiesto di condurre autonomamente delle analisi dei rischi associati alla diffusione di contenuti illegalli e all’impatto su diritti fondamentali, processi democratici, sicurezza pubblica, violenza di genere e verso i minori e salute fisica e mentale degli utenti.

Dovranno poi rendere trasparenti e comprensibili per tutti i loro utenti, inclusi i bambini, gli algoritmi che regolano la proposta dei contenuti on line, i cosiddetti recommender systems. Inoltre, saranno obbligate a condividere con i regolatori le strategie che adottano per gestire la disinformazione online, in particolare in tempi di crisi ed emergenza. In particolare, dovranno dimostrare di dedicare una quantità di risorse e personale sufficiente ad assicurare che queste strategie automatiche siano supervisionate da esseri umani a cui gli utenti si possano rivolgere nella propria lingua.

Questi obblighi di trasparenza sono intesi anche per permettere la vigilanza da parte di ricercatori, associazioni e organizzazioni non governative che si occupano di diritti fondamentali nell’era digitale.

«Anche se l'UE ha ora un accordo sul Digital Services Act, non è ancora finita» hanno scritto John Albert e Leonie Dorn dell’ONG berlinese Algorithm Watch. «Sapremo se il DSA mantiene le sue promesse solo quando vedremo come verrà applicato in pratica. In passato le piattaforme hanno sfruttato ogni opportunità per ostacolare il controllo pubblico. In particolare, siamo preoccupati per la possibilità che queste aziende siano ancora in grado di invocare il “segreto commerciale” per negare l’accesso ai dati». Il commento di Algorithm Watch su questo tema è particolarmente informato. Nel 2021 l’ONG era stata costretta a interrompere forzatamente il suo progetto di monitoraggio dell’algoritmo di newsfeed di Instagram dopo che Facebook aveva minacciato di passare alle vie legali affermando che il progetto violava i Termini di servizio della piattaforma.

Le sanzioni previste per le grandi aziende che non rispetteranno le disposizioni del regolamento potranno raggiungere il 6% del loro fatturato globale. Inoltre, le grandi aziende saranno chiamate a rispettare il regolamento non appena entrerà in vigore, al più tardi il 1° gennaio 2024, mentre per le realtà più piccole è previsto un periodo di grazia.

«L'era delle grandi piattaforme online che pensano di essere al di sopra delle regole sta giungendo al termine», ha dichiarato Thierry Breton, Commissario per il Mercato interno, forte della recente approvazione del Digital Markets Act. «Le istituzioni dell'UE hanno lavorato fianco a fianco in tempi record, con la determinazione e l'ambizione di proteggere i nostri cittadini online».

Insieme al Digital Markets Act, il Digital Services Act è il tentativo più ambizioso di regolare e contenere lo strapotere delle piattaforme digitali. Il regolamento si pone come un modello per tutti gli atri paesi che stanno affrontando lo stesso tema in questi anni.

 

Articoli correlati

Scienza in rete è un giornale senza pubblicità e aperto a tutti per garantire l’indipendenza dell’informazione e il diritto universale alla cittadinanza scientifica. Contribuisci a dar voce alla ricerca sostenendo Scienza in rete. In questo modo, potrai entrare a far parte della nostra comunità e condividere il nostro percorso. Clicca sul pulsante e scegli liberamente quanto donare! Anche una piccola somma è importante. Se vuoi fare una donazione ricorrente, ci consenti di programmare meglio il nostro lavoro e resti comunque libero di interromperla quando credi.


prossimo articolo

Tumore della prostata e sovradiagnosi: serve cautela nello screening con PSA

prelievo di sangue in un uomo

I programmi di screening spontanei per i tumori della prostata, a partire dalla misurazione del PSA, portano benefici limitati in termini di riduzione della mortalità a livello di popolazione, ma causano la sovradiagnosi in un numero elevato di uomini. Questo significa che a molti uomini verrà diagnosticato e curato un tumore che non avrebbe in realtà mai dato sintomi né problemi. Un nuovo studio lo conferma.

I risultati di un nuovo studio suggeriscono che i programmi di screening spontanei per i tumori della prostata, a partire dalla misurazione del PSA, portano benefici limitati in termini di riduzione della mortalità a livello di popolazione, ma causano la sovradiagnosi in un numero elevato di uomini. Questo significa che a molti uomini verrà diagnosticato e curato (con tutte le conseguenze delle cure) un tumore che non avrebbe in realtà mai dato sintomi né problemi.