fbpx L'etica del soldato robot | Scienza in rete

L'etica del soldato robot

Tempo di lettura: 3 mins


Robot Talon in azione

L'uso di sistemi robotici in ambito bellico è una realtà consolidata. Il Packbot è un sistema robotico dotato di telecamera e manipolatori, progettato per individuare e far brillare mine o proiettili inesplosi.

Il Talon SWORDS è un sistema robotico cingolato equipaggiabile con mitragliatrici e piattaforme varie per il lancio di granate e missili anticarro. Il Talon è in grado di navigare in modo autonomo nell'ambiente con l'ausilio di un GPS, ma le armi di bordo non sono controllate autonomamente dal sistema robotico e vengono azionate in remoto da un soldato.

Entrambi i sistemi sono stati ampiamente impiegati in Iraq e Afghanistan dall'esercito statunitense. Sono operativi anche alcuni sistemi robotici in grado di prendere la decisione di sparare e di agire di conseguenza. E' il caso della sentinella robotica SGR-A1, dotata di una mitragliatrice e di un sistema di visione in grado di individuare una persona anche in condizioni di illuminazione notturna. Questo sistema viene utilizzato dall'esercito sudcoreano per sorvegliare la zona demilitarizzata al confine tra le due Coree, alla quale si suppone che possano accedere solo dei nemici. L'ipotesi che guida il sistema di controllo di SGR-A1 – e cioè che ogni oggetto animato inquadrato nel mirino sia un nemico – non è, in generale, un'ipotesi valida sui campi di battaglia. E' infatti possibile inquadrare nel mirino soldati del proprio esercito, civili inermi, feriti dell'esercito nemico che non sono in grado di nuocere, avversari che hanno già espresso la volontà di arrendersi.

Eppure sono in corso numerosi progetti di ricerca per lo sviluppo di soldati robotici autonomi, e cioè in grado di controllare e usare per uccidere delle armi senza essere soggetti alla supervisione diretta di un essere umano.

Questi sistemi saranno in grado di distinguere tra un nemico e un civile inerme? Più in generale, i soldati robot saranno dotati delle capacità di discriminazione richieste a un essere umano perché possa qualificarsi come un combattente e non come un massacratore? Non si può evitare di affrontare questo problema se vogliamo che un soldato robot autonomo sia in grado di rispettare prescrizioni morali giustificabili in base a varie dottrine etiche o di comportarsi in conformità con le regole militari d'ingaggio e con le prescrizioni dello jus in bello codificate attraverso convenzione di Ginevra e altri protocolli internazionali.

Alcuni ricercatori nel settore della robotica hanno recentemente espresso – anche attraverso i giornali (International Herald Tribune, 26/11/2008) – la convinzione che i soldati robotici autonomi saranno, e in alcuni casi già sono, in grado di rispettare le prescrizioni morali e giuridiche del caso altrettanto bene o anche meglio di un essere umano. Per avvalorare questo punto di vista sono stati citati i casi, anche recenti, di massacri, torture, e altre violazioni gravi dei codici di condotta militare ad opera di soldati di diversi eserciti.

Troppo facile. Un confronto serio deve essere impostato con soldati il cui comportamento non sia così ovviamente censurabile. E un tale confronto richiede di individuare le capacità percettive e cognitive necessarie a discriminare tra avversari, amici e astanti negli scenari bellici più vari e meno rigidamente stereotipati. I sistemi robotici attuali non possono, in generale, competere con un essere umano in relazione a questo tipo di capacità percettive.

Nell'opinione di chi scrive, dotare un robot autonomo delle capacità percettive richieste a un soldato per rispettare regole d'ingaggio e jus in bello equivale, in buona sostanza, a risolvere il problema dell'intelligenza artificiale tout court. Ma in ogni caso la questione richiede una riflessione etica più approfondita alla luce degli attuali sviluppi delle tecnologie robotiche, senza tralasciare un'analisi degli interessi sociali, politici ed economici in campo.


Scienza in rete è un giornale senza pubblicità e aperto a tutti per garantire l’indipendenza dell’informazione e il diritto universale alla cittadinanza scientifica. Contribuisci a dar voce alla ricerca sostenendo Scienza in rete. In questo modo, potrai entrare a far parte della nostra comunità e condividere il nostro percorso. Clicca sul pulsante e scegli liberamente quanto donare! Anche una piccola somma è importante. Se vuoi fare una donazione ricorrente, ci consenti di programmare meglio il nostro lavoro e resti comunque libero di interromperla quando credi.


prossimo articolo

Vedere le faglie in 3D grazie al machine learning

prefettura dell aquila dopo il terremoto del 2019

Un sistema di algoritmi di machine learning permette di ricostruire la geometria tridimensionale delle faglie sismiche a partire solo dalla posizione degli ipocentri, rivelando la loro struttura gerarchica e segmentata. L’approccio, sviluppato da un gruppo di ricercatori dell’Università di Napoli Federico II e testato su diverse sequenze sismiche, potrebbe migliorare i modelli di previsione probabilistica operativa dei terremoti. Nell'immagine il palazzo della prefettura a L'Aquila dopo il terremoto del 6 aprile 2009. Credit: TheWiz83/Wikipedia (CC BY-SA 3.0). 

Siamo abituati a immaginare le faglie come piani, a separazione di blocchi di roccia che muovendosi l’uno rispetto all’altro generano i terremoti. In realtà, le faglie hanno geometrie molto più complicate. Più che come piani, dovremmo immaginarle come sottili parallelepipedi, strati di roccia con un certo spessore, all’interno dei quali si trovano altre faglie più piccole, e così via in un meccanismo di segmentazione gerarchico.