fbpx Walter Quattrociocchi: come ti prevedo le fake news | Scienza in rete

Walter Quattrociocchi: come ti prevedo le fake news

Primary tabs

Read time: 4 mins

Paul Klee, Vor dem Blitz, 1923, acquerello e matita su carta, 28 x 31,5 cm. Fondation Beyeler, Riehen/Basel, Sammlung Beyeler. Foto: Peter Schibli.

Nel 2017 il Collins Dictionary nomina “Fake news” la parola dell’anno, a fronte di una presenza sui media aumentata del 365% rispetto all’anno precedente. I tentativi per arginare il fenomeno sono molti. Ma se fosse possibile prevenirlo? Un recente studio (1) condotto dai ricercatori Michela Del Vicario (IMT di Lucca), Walter Quattrociocchi (Ca’ Foscari), Antonio Scala (ISC-CNR Sapienza) e Fabiana Zollo (Ca’ Foscari), propone un modello di analisi del comportameno degli utenti sui social media al fine di individuare in anticipo le notizie e gli argomenti con maggiori probabilità di diventare oggetto di fake news. L’analisi è stata condotta su Facebook, con un dataset di 300mila notizie tratte da testate ufficiali e 50mila post scelti da pagine che veicolano notizie false. Secondo gli autori, il vero campanello d’allarme è l’aumento della polarizzazione, ovvero l’estremizzazione delle opinioni degli utenti: Il 91% dei topic polarizzanti analizzati è anche argomento di fake news. Ne abbiamo parlato con Walter Quattrociocchi in questa breve intervista.

Come si arriva alla polarizzazione?

“Innanzitutto è cambiato il modo di accesso alle informazioni e alla conoscenza e che cambiando questo, cambia tutto. Siamo passati da un paradigma di mediazione [di giornalisti ed esperti] a un processo molto più diretto. Con la diffusione dei social media, ci si aspettava che avendo accesso a molte più informazioni le persone si sarebbero aperte a nuove prospettive e nuovi punti di vista. Ma gli studi e le analisi condotti finora ci dicono l’opposto: davanti a tante fonti di informazione possibili ognuno cerca quella più vicina alla propria visione del mondo. Questo è il confirmation bias”.

Studi precedenti mostrano infatti come il confirmation bias giochi un ruolo centrale nell’information cascade, ovvero nel passaggio di notizie che si assumono come vere ma la cui veridicità non è verificabile sulla base delle informazioni fornite. Come si passa dal confirmation bias alla polarizzazione?

“Il confirmation bias porta alla nascita di echo chambers, cioè gruppi di persone che si aggregano in comunità di interesse, con credenze e obiettivi condivisi. Nelle echo chambers le opinioni individuali non vengono discusse, bensì rafforzate e polarizzate. Le informazioni discordanti spesso vengono semplicemente ignorate. Il fact-checking [la verifica dei fatti] ha grossi limiti. Si cerca di combattere le fake news dicendo «la verità ce l’ho io: eccola», ma non funziona più. Dobbiamo capire che le fake news sono solo la punta dell’iceberg. Il vero danno lo fanno le segregazioni in gruppi, in narrative che non si parlano”.

Quindi lo scopo sarebbe quello di mitigare la polarizzazione, una volta individuate le tematiche a rischio. In che modo?

“Con nuove narrazioni. L’essere umano non è razionale, come ci ostiniamo a credere, bensì ha una visione del mondo che è emotiva e percettiva. La comunicazione deve essere mirata al fabbisogno informativo dell’utente. Lo scherno e la presunzione di autorità aumentano solo la polarizzazione. Bisogna entrare nell’echo chamber, capire quali siano i bisogni informativi degli individui e il motivo della loro resistenza”.

Tracciare la disinformazione su topic potenzialmente polarizzanti come salute, cibo, ambiente, immigrazione e sicurezza: è ciò che si propone di fare il progetto pilota Pandoors, una collaborazione tra l’Università Ca’ Foscari di Venezia e la London School of Economics and Political Science. L’obiettivo è monitorare l’accesso alle notizie sui social media, ricostruire e mappare l’architettura di pagine ed echo chambers e le loro narrative, cercando segnali di polarizzazione e confirmation bias in modo da prevenirli. Che strategia pensate di adottare?

“Al momento stiamo lavorando sulle immigrazioni in Italia, ma stiamo ancora cercando di capire quali siano le leve giuste su cui agire. Ogni echo chamber ha una propria predisposizione a una specifica narrativa, che veicola una particolare visione del mondo. L’obiettivo è di intercettarla e veicolare storie che siano coerenti con quella visione del mondo. Sfruttare il confirmation bias, non fare finta che non esista. Il che poi significa comunicare con un essere umano e non con una macchina”.

Le fake news dominano il discorso mediatico. In quanto comunicatori e giornalisti, cosa non stiamo capendo del fenomeno?

“È importante ricordarsi sempre che l’essere umano è profondamente irrazionale. E poi, in realtà, fake news è un fake term [un termine falso]: parte dal presupposto che la realtà sia divisibile tra vero e falso e che una notizia possa essere solo vera o falsa, ma non è così. Forse dobbiamo prenderci tutti meno sul serio”.

 

Note

(1) Del Vicario M., Quattrociocchi W., Scala A., Zollo F. (2018), "Polarization and Fake News: Early Warning of Potential Misinformation Targets", arXiv (prepubblicazione)

 


Scienza in rete è un giornale senza pubblicità e aperto a tutti per garantire l’indipendenza dell’informazione e il diritto universale alla cittadinanza scientifica. Contribuisci a dar voce alla ricerca sostenendo Scienza in rete. In questo modo, potrai entrare a far parte della nostra comunità e condividere il nostro percorso. Clicca sul pulsante e scegli liberamente quanto donare! Anche una piccola somma è importante. Se vuoi fare una donazione ricorrente, ci consenti di programmare meglio il nostro lavoro e resti comunque libero di interromperla quando credi.


prossimo articolo

Intelligenza artificiale ed educazione: la ricerca di un incontro

Formazione ed educazione devono oggi fare i conti con l'IA, soprattutto con le intelligenze artificiali generative, algoritmi in grado di creare autonomamente testi, immagini e suoni, le cui implicazioni per la didattica sono immense. Ne parliamo con Paolo Bonafede, ricercatore in filosofia dell’educazione presso l’Università di Trento.

Crediti immagine: Kenny Eliason/Unsplash

Se ne parla forse troppo poco, almeno rispetto ad altri ambiti applicativi dell’intelligenza artificiale. Eppure, quello del rapporto fra AI ed educazione è forse il tema più trasversale all’intera società: non solo nell’apprendimento scolastico ma in ogni ambito, la formazione delle persone deve fare i conti con le possibilità aperte dall’IA.