fbpx Big Data: indietro nel tempo per ricostruire i linguaggi | Page 7 | Scienza in rete

Big Data: indietro nel tempo per ricostruire i linguaggi

Read time: 2 mins

Una ‘macchina del tempo automatica’, capace di ricostruire in poco tempo l’evoluzione dei linguaggi più antichi: è questo il risultato di un lavoro di ricerca di un team di scienziati di Berkley, in California, utile ai linguisti per fare sintesi tra le informazioni disponibili su centinaia di civiltà ancestrali.

La frontiera dei “Big Data” - ovvero quell’enorme quantità e aggregazione di dati oggi disponibile, gestibile con tecnologie avanzate – non riguarda solo il flusso di bit del web o di files di testo, audio o video. La gestione dell’intero patrimonio di conoscenza raccolto può essere applicata anche a database tutt’altro che digitali, come dimostrano i ricercatori di Berkley che hanno messo a punto un programma e un sistema computerizzato in grado di garantire una ricostruzione veloce degli antenati dei linguaggi più moderni. Il nuovo sistema computazionale californiano sfrutta un modello probabilistico (il “Monte Carlo”, utilizzato abitualmente anche nelle ricostruzioni di modelli atomici in fisica teorica), per incrociare i vocaboli conosciuti con diverse radici semantiche relative a diverse lingue, ma con suono comune e origini ricollegabili tra di loro.
In ogni fase di calcolo dell’algoritmo, i percorsi evolutivi di linguaggi come il Proto-Indo Europeo o il Proto-Afroasiatico diventano più chiari. Questo programma è in grado, tuttavia, non solo di accelerare i processi di ricostruzione dei linguaggi più antichi su larga scala, ma, di conseguenza, facilita e completa la conoscenza che abbiamo sulle culture delle civiltà, basandosi sui loro vocabolari: una Big Data Analysis del passato, insomma.

“La cosa più entusiasmante del nuovo sistema sviluppato, è che vengono utilizzate molte delle idee già sviluppate dai linguisti circa la ricostruzione dell’evoluzione storica dei linguaggi, in modo inedito: più dati, più parole, più linguaggio, ma in meno tempo” – dichiara Dan Klein, professore associato di computer science all’università di Berkley e co-autore del paper pubblicato su PNAS.

La scoperta fatta a Berkley è un passo importante per la documentazione e gestione critica delle fonti storiche sul linguaggio e per tutelare la cultura e le conoscenze del passato. Infatti, mentre gli archeologi possono contare solo su fonti scritte, indagando il passato con un metodo comparativo, questo sistema consente di automatizzare l’analisi sulle relazioni tra linguaggi, con più alti livelli di certezza statistica.

La prossima ricostruzione in programma riguarda i proto-linguaggi delle popolazioni indigene del Nord-America.

Autori: 
Sezioni: 
Linguistica

prossimo articolo

Capire se sappiamo prevedere i terremoti è difficile

grafico onde

Prevedere la data e il luogo esatti in cui si verificherà un terremoto è impossibile. Tuttavia, si possono formulare delle previsioni probabilistiche nel breve termine, sfruttando il fatto che i terremoti tendono a concentrarsi nel tempo e nello spazio. Da una decina di anni alcuni paesi del mondo hanno lavorato a queste previsioni, cercando di formularle in modo che fossero utili per le autorità di protezione civile e di gestione delle emergenze. Tra questi paesi c’è l’Italia, che ha cominciato a lavorarci sul serio dopo il terremoto avvenuto a L’Aquila il 6 aprile del 2009. Ma come si fa a capire quando un modello produce buone previsioni? La domanda è tutt’altro che semplice. Provano a rispondere due sismologi e due statistici in uno studio pubblicato su Seismological Research Letters.

Immagine rielaborata da https://doi.org/10.1029/2023RG000823. (CC BY 4.0)

L’Italia è uno dei pochi paesi al mondo ad aver sviluppato un sistema per la previsione probabilistica dei terremoti. Si chiama Operational Earthquake Forecasting-Italy (OEF-Italy) e viene gestito dal Centro di Pericolosità Sismica dell’Istituto Italiano di Geofisica e Vulcanologia (INGV).