newsletter finesettimana #15
logo Scienza in rete finesettimana #15
8 gennaio 2021
a cura di Chiara Sabelli
Buon venerdì,
e buon 2021. Questa settimana parliamo di dove ci porterà il nuovo anno pandemico, delle implicazioni dell'accordo sulla Brexit per la ricerca scientifica, del primo progetto finanziato in Africa con il fondo verde per il clima dell'ONU, del sindacato fondato dai dipendenti di Google, dell'entrata in vigore del Plan S sull'open access e diamo gli aggiornamenti sulla situazione dell'epidemia di COVID-19 (in particolare sulle campagne vaccinali in Europa e sulla nuova variante B.1.1.7).
La notizia che approfondiamo oggi è la sentenza emessa dal tribunale di Bologna che ha definito discriminatorio l'algoritmo utilizzato da Deliveroo per l'accesso al servizio di prenotazione delle sessioni di lavoro da parte dei rider, condannando l'azienda al pagamento di un risarcimento di 50 mila euro e delle spese legali. Buona lettura (per segnalare questa newsletter agli amici ecco il link per l'iscrizione)

SEI PEZZI BELLI
1 Dove ci porterà il secondo anno della pandemia?
Su The Atlantic, il giornalista scientifico Ed Yong fa un bilancio del primo anno della pandemia e di quello che ci aspetta per il secondo. Abbiamo davanti a noi una campagna vaccinale di proporzioni inedite, che pone sfide industriali (produzione di un numero di dosi sufficiente), logistiche (raggiungere le zone rurali distanti dai centri clinici) e culturali (l'esitazione e la resistenza alle vaccinazioni si concentrerà in certi gruppi e regioni geografiche e questo potrebbe ridurre l'efficacia del vaccino nel contenere la trasmissione del virus nella comunità), oltre a mettere alla prova la resistenza del personale sanitario, già stremato dalle ripetute ondate del contagio. Ci sono poi le incertezze sulla durata dell'immunità conferita dai vaccini e sull'efficacia che avranno sulle nuove varianti che sono già emerse e su quelle che emergeranno in futuro. Se saremo fortunati, e la diffusione dell'infezione tornerà sotto controllo nel corso del 2021, ci dovremo confrontare con la cura delle altre patologie che sono state trascurate, oltre agli effetti di lungo termine della COVID-19, anche sulla salute mentale. E dovremo poi analizzare quanto è accaduto, dove abbiamo fallito. I sistemi sanitari occidentali si sono specializzati in cure costose e tecnologiche dimenticando gli interventi di prevenzione. Paesi con molti meno mezzi dei nostri hanno dimostrato di saper gestire meglio il contagio. Una lezione da non dimenticare soprattutto quando potremo cominciare a preparaci alle prossime epidemie, sperando di fare meglio [The Atlantic]

2 Cosa vuol dire l'accordo sulla Brexit per la scienza
Il 24 dicembre il Regno Unito e l'Unione Europea hanno raggiunto un accordo commerciale post Brexit, diventato valido dal 1 gennaio. L'accordo ha una serie di implicazioni sia per l'accesso ai fondi per la ricerca che per il movimento dei ricercatori tra Paesi dell'Unione e Regno Unito, molte delle quali hanno fatto tirare un sospiro di sollievo agli scienziati britannici ed europei. Il Regno Unito avrà accesso al nuovo programma quadro di finanziamento della ricerca della UE, Horizon Europe, anche se con lo status di Paese associato. Sempre con lo stesso status continuerà a fare parte del programma di ricerca sull'energia nucleare Euratom e del progetto ITER per la costruzione del primo reattore a fusione. Continuerà anche a far parte del programma Copernicus, il sistema di satelliti per l'osservazione della Terra che raccoglie dati per il monitoraggio del clima e per le previsione meteorologiche. Non verranno applicati dazi sugli strumenti e le forniture di laboratorio importate dall'UE. Riguardo agli studi clinici che coinvolgono ospedali in Paesi dell'Unione e del Regno Unito, la situazione è ancora incerta. Sono stati riconosciuti reciprocamente gli standard di qualità richiesti sui farmaci, ma l'Unione deve ancora decidere se il trattamento dei dati personali nel Regno Unito è adeguato. La nota più amara riguarda il programma Erasmus+, da cui il Regno Unito ha deciso di uscire per finanziare il Turing Scheme che permetterà ai suoi studenti di andare a studiare all'estero, ma non riguarderà gli studenti che dall'estero vorranno recarsi nel Regno Unito. L'immigrazione di personale altamente qualificato sarà regolata da un sistema a punti, mentre gli scienziati britannici che vorranno spostarsi nei Paesi dell'Unione si troveranno davanti un panorama di regole ancora molto frammentato [Nature]

3 In Ruanda il primo progetto africano di adattamento al cambiamento climatico finanziato col fondo verde dell'ONU
Nella provincia nordoccidentale di Gicumbi è in corso di sviluppo da poco più di anno il primo progetto del continente finanziato con circa 27 milioni di euro del Fondo Verde messo a disposizione dalle Nazioni Unite all'interno della convenzione quadro sul cambiamento climatico. La popolazione, principalmente agricoltori, è stata coinvolta nelle operazioni prima di terrazzamento dei territori colpiti da numerose frane e alluvioni, e poi di riconversione delle colture. Si tratta di un progetto pilota che, se si dimostrerà efficace, dovrebbe essere applicato su scala nazionale per permettere al Paese africano di rispettare l'impegno di riduzione delle sue emissioni di gas a effetto serra del 38% entro il 2030. Ma per raggiungere questo obiettivo il governo ruandese dovrà trovare 11 miliardi di finanziamento e probabilmente sarà costretto a cercare investitori stranieri «L'ecosistema complessivo della finanza verde è proibitivo. Eppure dobbiamo affrontare problemi urgenti», ha commentato un consulente del progetto di Gicumbi, spiegando che le procedure di accesso al Fondo verde sono estremamente lunghe e complicate e rischiano di lasciare fuori i Paesi in via di sviluppo [Le Monde]

4 I lavoratori di Google hanno fondato un sindacato
Il 4 gennaio 220 dipendenti di Google hanno annunciato di aver fondato un sindacato, la Alphabet Workers Union, aperto a tutti i lavoratori di Google e della compagnia che lo controlla, Alphabet. L'organizzazione non ha lo status giuridico di un vero e proprio sindacato, non ha cioè il potere di negoziare con i manager dell'azienda e non intende richiederlo per ora. Punta prima di tutto a ottenere la maggiore adesione possibile tra i dipendenti della società, che in tutto sono 100,000 in tutto il mondo, e concentrarsi soprattutto su temi di natura etica, come per esempio la sottoscrizione da parte di Google di contratti in ambito militare, i casi di molestie sessuali sul luogo di lavoro e l'equità del salario. È la prima grande azienda tecnologica in cui i lavoratori si organizzano in un sindacato e questo accade in un momento particolarmente delicato per Google, accusato di detenere una posizione illegittima di monopolio dal Governo degli Stati Uniti. Google finora si era differenziato dalle altre società del settore per una filosofia più aperta nella gestione dei suoi dipendenti, ma le cose sono cambiate e ne è prova la recente controversia sul licenziamento di Timnit Gebru, responsabile del gruppo di ricerca sull'etica nell'intelligenza artificiale [Vox]

5 Entra in vigore il Plan S sull'open access: sarà in grado rivoluzionare l'editoria scientifica?
Nel 2018 un gruppo di enti di finanziamento della ricerca, principalmente europei, ha lanciato il Plan S: gli scienziati che riceveranno fondi da questi enti dovranno rendere i risultati della loro ricerca liberamente accessibili a tutti dal momento della pubblicazione. Nonostante il consenso mostrato da molte grandi agenzie di finanziamento nel mondo, alla fine l'adesione al Plan S è stata piuttosto limitata e a oggi comprende solo le istituzioni responsabili per il 6% degli articoli pubblicati nel 2017. Se alcuni sostengono che l'impatto del piano sarà comunque importante perché sottoscritto dalle agenzie che pubblicano almeno un terzo dei lavori che appaiono sulle riviste più prestigiose e dunque il loro esempio avrà un grande impatto, altri ritengono che il meccanismo è troppo costoso per università e ricercatori e che molti non potranno permetterselo [Science]

6 Aggiornamenti COVID-19
   ×  Il 27 dicembre è cominciata in tutta Europa la somministrazione del vaccino Pfizer/BioNTech. Al 7 gennaio l'Italia ha ricevuto 438 750 dosi e ne ha somministrate 407 044 dosi, di cui 340 959 al personale sanitario e sociosanitario e 24 182 agli ospiti delle RSA. I dati, distinti per regione, categoria, sesso e fascia di età, vengono aggiornati quotidianamente e pubblicati qui [Report Vaccini Anti COVID-19]
   ×  Le vaccinazioni sono cominciate dal personale sanitario, ma per ora gli specializzandi non le riceveranno perché non hanno un contratto di lavoro dipendente con gli ospedali. Il personale amministrativo invece ha già potuto prenotarsi [La Repubblica]
   ×  I dati sulle vaccinazioni a livello internazionale possono essere consultati qui [Our World in Data]
   ×  Nel frattempo il 30 dicembre l'agenzia del farmaco del Regno Unito ha autorizzato, prima al mondo, il vaccino sviluppato da Oxford e AstraZeneca e le prime dosi sono state somministrate il 4 gennaio [BBC]
   ×  E il 6 gennaio l'agenzia europea del farmaco ha autorizzato il vaccino prodotto da Moderna [Le Monde]
   ×  I dati sulla sua efficacia sono stati pubblicati il 30 dicembre sul New England Journal of Medicine [NEJM]
   × A metà dicembre le autorità sanitaria inglesi hanno reso noto che una nuova variante del SARS-CoV-2, denominata B.1.1.7, rappresentava una parte sempre maggiore delle nuove infezioni registrate nel Regno Unito, in particolare in alcune regioni. Allo stato attuale, gli scienziati sembrano concordare che la variante non è più letale, ma è più contagiosa, con un Rt superiore del 50% rispetto a quello della variante principalmente diffusa in Europa finora. Queste stime si basano su dati epidemiologici [Imperial College London]
   × La diffusione di questa nuova variante è causa di preoccupazione tra gli scienziati, che temono possa rapidamente diventare la variante prevalente a livello globale e portare l'epidemia in una nuova fase, dalle caratteristiche imprevedibili [Science]
   × La gravità dell'epidemia nel Regno Unito ha spinto il 4 gennaio il primo ministro Boris Johnson a ordinare un nuovo lockdown a livello nazionale. Inoltre, le autorità sanitarie stanno considerando di ritardare fino a 12 settimane la somministrazione del richiamo , per far sì che il maggior numero di persone riceva la prima dose il prima possibile. La farmaceutica BioNTech ha risposto che questa decisione non è supportata dai dati raccolti durante gli studi clinici, in cui i pazienti hanno ricevuto il richiamo a distanza di tre settimane dalla prima dose [Financial Times]
   ×  Il 5 gennaio le autorità cinesi hanno bloccato l'ingresso nel Paese del gruppo di esperti dell'Organizzazione Mondiale della Sanità incaricati di investigare l'origine della pandemia, sostenendo che i loro visti non sono validi [The Guardian]
   ×  Da mesi sappiamo che i numeri relativi ai nuovi casi di infezione sono sottostimati rispetto a quelli reali, in particolare durante la prima ondata. Ma di quanto? Un nuovo studio pubblicato su Nature, relativo all'epidemia in Francia tra metà maggio e fine giugno, ha stimato che nei periodi di alta incidenza i casi ufficiali potrebbero essere stati il 10% di quelli effettivi [The Conversation]

L'ALGORITMO DI DELIVEROO È DISCRIMINATORIO SECONDO IL TRIBUNALE DI BOLOGNA

Il 30 dicembre il tribunale di Bologna ha emesso un'ordinanza, firmata dalla giudice Chiara Zompì, che definisce discriminatorio l'algoritmo utilizzato da Deliveroo, piattaforma di consegna del cibo a domicilio, per gestire le prenotazioni delle sessioni di lavoro da parte dei rider, condannando l'azienda a pagare 50 000 euro di risarcimento alle organizzazioni sindacali che hanno fatto ricorso oltre a sostenere le spese legali (il testo dell'ordinanza è consultabile qui).

«È probabilmente il primo caso in cui un algoritmo viene chiamato a comparire in tribunale e ritenuto illegittimo in Europa nel rapporto tra privato e privato», commenta Mario Guglielmetti, legale presso lo European Data Protection Supervisor (EDPS), l'autorità europea indipendente per la protezione dei dati personali. E aggiunge «esistono diversi precedenti riguardanti algoritmi utilizzati da soggetti pubblici, come ad esempio il sistema SiRy che stimava la probabilità dei cittadini olandesi di commettere frode ai danni dello Stato, sospeso a febbraio dalla corte distrettuale dell'Aia perché accusato di violare i diritti umani. Il pronunciamento del tribunale di Bologna è il primo in cui un sistema automatico viene considerato illegittimo nel rapporto tra due soggetti privati, come sono da considerarsi Deliveroo e i riders, che l'azienda inquadra come collaboratori autonomi»1.

L'algoritmo su cui si è espressa la giudice Zompì è quello che stabilisce le priorità di accesso al sistema di prenotazione delle sessioni di lavoro. Il funzionamento di questo algoritmo non è chiaro e durante il procedimento è stato ricostruito solo grazie alle testimonianze di alcuni fra i ciclofattorini che si sono rivolti alle associazioni sindacali per ricorrere contro l'azienda. Deliveroo non ha infatti fornito alcun dettaglio a riguardo. «Questo rende particolarmente significativa questa ordinanza: l'opacità dei sistemi automatici di assistenza alla decisione non è più sufficiente a proteggere le aziende e sollevarle dalle loro responsabilità nei confronti dei lavoratori», afferma Massimo Durante, professore associato all'Università di Torino, filosofo del diritto ed esperto di governance algoritmica (il suo ultimo libro in italiano è 'Potere computazionale', edito da Melteni).

Ma come funziona l'algoritmo in questione e in che modo è discriminatorio? Si tratta del sistema che assegna le priorità di accesso al "self-service booking", la prenotazione delle sessioni di lavoro settimanali. Ogni lunedì i rider iscritti alla piattaforma hanno la possibilità di prenotare le sessioni di lavoro della settimana. Ma non lo fanno tutti nello stesso momento. Coloro che hanno un punteggio reputazionale maggiore, infatti, possono accedere alla prenotazione dalle 11 del lunedì. Chi è in posizione intermedia vi accederà dalle 15, i rider che occupano i posti più bassi della classifica solo dalle 17 in poi. Chi accede più tardi ha meno possibilità di scelta. Secondo uno dei testimoni accedendo alle 11 si possono prenotare fino a 40 ore settimanali, alle 15 ci si assicura tra le 13 e le 17 ore settimanali, mentre alle 17 le sessioni settimanali ancora disponibili superano difficilmente le due ore. Le prime sessioni a essere prenotate sono quelle del weekend, in cui il numero di consegne è sensibilmente più alto e dunque le possibilità di guadagno maggiori. Molto, insomma, dipende dal punteggio reputazionale che, nella ricostruzione del procedimento, viene stabilito dall'algoritmo in base a due indici: affidabilità e partecipazione. L'affidabilità decresce quando il lavoratore non esegue l'accesso alla piattaforma entro i primi 15 minuti dall'inizio della sessione di lavoro localizzandosi nell'area per cui ha dato disponibilità a eseguire il servizio di consegna, tranne nel caso in cui l'abbia cancellata almeno 24 ore prima. La partecipazione invece aumenta con il numero di sessioni di lavoro in cui il rider ha prestato il suo servizio durante i periodi di picco, dalle 20 alle 22 di venerdì, sabato e domenica. Se un rider non cancella la sua prenotazione con sufficiente anticipo per via di uno sciopero a cui vuole prendere parte o per motivi di salute o di cura dei figli minori, l'algoritmo comunque lo giudicherà meno affidabile e lo farà scendere nella classifica reputazionale mettendo a rischio la sua priorità di accesso alle prenotazioni. In sostanza l'algoritmo tratta in maniera uguale tutte le cancellazioni avvenute troppo tardi, considerando cioè irrilevanti i motivi della mancata partecipazione alla sessione prenotata. In questo consiste, secondo la giudice, la discriminazione indiretta, un comportamento che a causa della sua uniformità riserva un trattamento ingiusto a un determinato gruppo di soggetti (in questo caso i lavoratori che legittimamente desiderano partecipare a uno sciopero o che hanno problemi di salute che gli impediscono di rispettare l'impegno preso).

La giudice ha sottolineato che l'algoritmo è in grado di contemplare delle eccezioni, nel caso in cui si verifichi un incidente nel turno precedente a quello a cui il rider non partecipa o nel caso in cui la piattaforma che gestisce i rider si blocchi e diventi inaccessibile. In queste due circostanze infatti la mancata partecipazione del lavoratore alla sessione prenotata non viene considerata ai fini del calcolo delle statistiche reputazionali. Sarebbe, dunque, bastata la volontà da parte dell'azienda di tenere in considerazione il diritto allo sciopero, diritto costituzionalmente garantito, per adeguare di conseguenza l'algoritmo. L'ordinanza potrebbe avere rilevanza nazionale, visto che il sistema con cui Deliveroo ha gestito le priorità di accesso alle prenotazioni da parte dei rider è stato in uso su tutto il territorio nazionale.

«L'altro elemento estremamente interessante di questa sentenza è che inverte, seppur parzialmente, l'onere della prova nell'ambito di un giudizio antidiscriminatorio che si applica al funzionamento di un algoritmo», commenta ancora Durante, «la giudice ha infatti accettato le testimonianze delle parti ricorrenti a prova degli effetti discriminatori dell'algoritmo sui lavoratori chiedendo all'azienda di provare l'insussistenza della discriminazione». Deliveroo, dal canto suo, non ha fornito a riguardo alcun dettaglio, a parte dichiarare che il sistema non è più utilizzato dal 2 novembre 2020 e che anche prima di quella data i rider hanno sempre avuto un'alternativa alla prenotazione, quella del cosiddetto free login. «L'azienda ha accettato la ricostruzione del funzionamento del sistema automatizzato emersa in corso di causa, piuttosto che dimostrare il contrario svelando la cosiddetta black box della intelligenza artificiale utilizzata»commenta ancora Guglielmetti, «questo ha impedito di condurre un vero audit tecnologico sull'algoritmo», conclude.

Non sappiamo infatti se l'algoritmo sia un sistema di machine learning, i cui risultati cambiano a seconda della base di dati su cui vengono allenati e i cui effetti possono essere difficili da valutare a priori, o piuttosto si tratti di un più semplice software pre-programmato secondo un sistema di regole scelte dall'azienda per massimizzare i suoi obiettivi di profitto e di cui è molto più semplice prevedere i difetti e i limiti. Ma è ormai sempre più evidente che anche sistemi molto semplici possono generare discriminazione e ingiustizia.

Ne è un esempio recente il caso dell'algoritmo utilizzato per la pianificazione delle campagne vaccinali contro COVID-19 all'ospedale di Stanford. A metà dicembre un centinaio di medici, dipendenti dell'ospedale, hanno manifestato davanti agli ambulatori dove venivano effettuate le prime vaccinazioni. Solo 7 degli oltre 1300 medici della struttura erano stati inclusi nella somministrazioni delle prime 5000 dosi. La decisione era stata presa in base ai risultati di un algoritmo che considerava una serie di variabili per ciascun dipendente, tra cui l'età e il livello di esposizione al contagio. Evidentemente, però, l'algoritmo faceva male il suo lavoro, visto che aveva escluso gran parte del personale sanitario che da mesi è impegnato in prima linea nel contrastare l'epidemia. Come approfondito più avanti da MIT Technology Review, l'errore è stato non rivedere i risultati che l'algoritmo produceva quando riceveva come input i dati relativi ai dipendenti di quell'ospedale. Il problema, insomma, non è usare una procedura automatizzata ma piuttosto non essere disposti a rivederne il funzionamento anche di fronte all'evidenza che questa sia difettosa.

L'ordinanza del tribunale di Bologna è importante anche dal punto di vista del diritto del lavoro. In un intervento sulla rivista Il Mulino, Antonio Aloisi e Valerio de Stefano, autori del volume 'Il mio capo è un algoritmo. Contro il lavoro disumano' edito da Laterza, notano come autonomia e indipendenza dei lavoratori delle piattaforme digitali siano di fatto virtuali e che questo sia stato ormai riconosciuto da diversi tribunali in Europa (tra gli ultimi esempi la sentenza del tribunale di Palermo del novembre 2020 che ha imposto a Glovo di assumere a tempo indeterminato uno dei suoi ciclofattorini). Tuttavia è importante, sottolineano i due giuristi, che l'ordinanza del tribunale di Bologna consideri di fatto i rider di Deliveroo come subordinati e si concentri su un altro aspetto, quello della responsabilità dell'azienda riguardo le decisioni prese automaticamente sulla base di valutazioni statistiche. In altre parole la corte è andata oltre il formalismo dell'inquadramento del rapporto di lavoro e ha affermato un principio: è ora di guardare dentro alle scatole nere degli algoritmi e correggerne i difetti se non si vuole incorrere in giudizi come quello di Bologna. Nell'affermare questo principio si comunica anche un altro concetto centrale al problema della governance algoritmica: i sistemi automatici non sono né neutri, né oggettivi. Come ha scritto la giornalista Cathy O'Neil nel suo libro 'Weapons of Math Destruction': «i modelli non sono altro che opinioni scritte nel linguaggio della matematica».

L'obbligo alla trasparenza e alla conoscibilità dei sistemi automatici di assistenza alla decisione è stabilito anche dagli articoli 14 e 22 del Regolamento europeo sulla protezione dei dati personali (GDPR), entrato in vigore nel 2018. L'ordinanza di Bologna non vi fa riferimento, probabilmente perché la questione non viene invocata dalle parti ricorrenti, cioè le organizzazioni sindacali. Esistono però altre cause in corso che si appellano proprio al GDPR, come quella intentata contro Uber dal sindacato britannico App Drivers & Couriers Union, per conto di un migliaio di autisti che si sono visti disattivare gli account ingiustificatamente. In questo caso i ricorrenti sostengono che un sistema automatico ha preso una decisione rilevante per la loro vita, li ha licenziati, fatto considerato illegittimo proprio dall'articolo 22 del GDPR.

Note
1 Guglielmetti non conosce i dettagli del procedimento e ha espresso le sue valutazioni a titolo personale e non in qualità di dipendente dello EDPS.


Per suggerimenti e commenti scrivere a: [email protected]
Per donare alla Newsletter clicca qui
Se invece non vuoi più ricevere la newsletter clicca qui
PS: per tenere Scienza in rete fuori dallo spam aggiungi la nostra mail [email protected] tuoi contatti (per Gmail, vai a contacts.google.com e clicca su "crea contatto"). Se Scienza in rete finisce nelle promozioni di Gmail, trascinala nella casella della tua posta in entrata per non perdere mai un numero!
Segui Scienza in rete
logo facebook logo twitter logo twitter logo twitter

By:
logo nuovo zadig