Nel 1951 il matematico britannico Alan Turing, considerato uno dei fondatori dell’intelligenza artificiale, disse che «una volta avviato lo sviluppo di macchine intelligenti, non ci vorrà molto perché superino i nostri deboli poteri. A un certo punto dovremo aspettarci che le macchine prendano il controllo».
L’idea di una macchina o un algoritmo super intelligente era già comparsa nella finzione letteraria, come per esempio nel racconto di fantascienza “The Machine Stops” scritto da Edward Morgan Forster in 1909 che descrive una infrastruttura intelligente onnipotente da cui gli esseri umani diventano gradualmente sempre più dipendenti e di cui conoscono sempre meno il funzionamento.
Ma proprio il lavoro di Turing del 1936, in cui introdusse gli oggetti matematici di macchina e programma, ha trascinato questa prospettiva dalla finzione alla realtà. Quei due oggetti si sono rivelati tra le entità matematiche più potenti mai inventate: otto delle dieci più profittevoli aziende del mondo oggi sono basate sul loro sviluppo.
L’intelligenza artificiale che potrebbe sottrarci il controllo sul nostro futuro di specie umana viene indicata con l’espressione general purpose AI, ovvero “sistemi capaci di imparare rapidamente a svolgere l'intera gamma di compiti che gli esseri umani sono in grado di eseguire”. Spesso viene usata anche l’espressione intelligenza artificiale generale.
Come possiamo evitare di perdere il controllo, consegnandolo alle macchine generaliste? Come possiamo imparare a coesistere con queste macchine? A queste domande ha risposto il matematico e informatico britannico Stuart Russell, della University of California at Berkeley in una serie di quattro lezioni chiamate Reith Lectures, trasmesse ogni anno tra novembre e dicembre via radio dalla BBC dal 1948 e affidate a una figura intellettuale di spicco. Il titolo delle lezioni tenute da Russell è “Living with Artificial Intelligence”.
Russell ammette che per gran parte della sua carriera ha considerato questo problema marginale e mal posto. Ma nel 2013, contattato dalla National Public Radio per un parere sul film "Transcendence", Russell, insieme ad altri due colleghi, Stephen Hawking e Max Tegmark, scrive in un editoriale per Huffington Post: «il successo nella creazione dell'IA (general purpose, ndr) sarebbe il più grande evento della storia umana. Purtroppo, potrebbe anche essere l'ultimo, a meno che non impariamo a evitare i rischi.»
Russell precisa che abbiamo ancora molto da fare per raggiungere questo “successo”. Per andare dalle attuali applicazioni, che sono specializzate in singole attività e per questo vengono chiamate narrow AI, alla general purpose AI sono necessarie ancora molte svolte concettuali e non è facile prevedere quanto tempo sarà necessario. Russell fa riferimento orientativamente a un periodo di 20 o 30 anni, ma precisa che questo tipo di previsioni sono quasi sempre sbagliate.
Alcuni rischi sono posti già da questi sistemi specializzati. Continua a leggere su Scienza in rete