fbpx L'etica del soldato robot | Scienza in rete

L'etica del soldato robot

Primary tabs

Tempo di lettura: 3 mins


Robot Talon in azione

L'uso di sistemi robotici in ambito bellico è una realtà consolidata. Il Packbot è un sistema robotico dotato di telecamera e manipolatori, progettato per individuare e far brillare mine o proiettili inesplosi.

Il Talon SWORDS è un sistema robotico cingolato equipaggiabile con mitragliatrici e piattaforme varie per il lancio di granate e missili anticarro. Il Talon è in grado di navigare in modo autonomo nell'ambiente con l'ausilio di un GPS, ma le armi di bordo non sono controllate autonomamente dal sistema robotico e vengono azionate in remoto da un soldato.

Entrambi i sistemi sono stati ampiamente impiegati in Iraq e Afghanistan dall'esercito statunitense. Sono operativi anche alcuni sistemi robotici in grado di prendere la decisione di sparare e di agire di conseguenza. E' il caso della sentinella robotica SGR-A1, dotata di una mitragliatrice e di un sistema di visione in grado di individuare una persona anche in condizioni di illuminazione notturna. Questo sistema viene utilizzato dall'esercito sudcoreano per sorvegliare la zona demilitarizzata al confine tra le due Coree, alla quale si suppone che possano accedere solo dei nemici. L'ipotesi che guida il sistema di controllo di SGR-A1 – e cioè che ogni oggetto animato inquadrato nel mirino sia un nemico – non è, in generale, un'ipotesi valida sui campi di battaglia. E' infatti possibile inquadrare nel mirino soldati del proprio esercito, civili inermi, feriti dell'esercito nemico che non sono in grado di nuocere, avversari che hanno già espresso la volontà di arrendersi.

Eppure sono in corso numerosi progetti di ricerca per lo sviluppo di soldati robotici autonomi, e cioè in grado di controllare e usare per uccidere delle armi senza essere soggetti alla supervisione diretta di un essere umano.

Questi sistemi saranno in grado di distinguere tra un nemico e un civile inerme? Più in generale, i soldati robot saranno dotati delle capacità di discriminazione richieste a un essere umano perché possa qualificarsi come un combattente e non come un massacratore? Non si può evitare di affrontare questo problema se vogliamo che un soldato robot autonomo sia in grado di rispettare prescrizioni morali giustificabili in base a varie dottrine etiche o di comportarsi in conformità con le regole militari d'ingaggio e con le prescrizioni dello jus in bello codificate attraverso convenzione di Ginevra e altri protocolli internazionali.

Alcuni ricercatori nel settore della robotica hanno recentemente espresso – anche attraverso i giornali (International Herald Tribune, 26/11/2008) – la convinzione che i soldati robotici autonomi saranno, e in alcuni casi già sono, in grado di rispettare le prescrizioni morali e giuridiche del caso altrettanto bene o anche meglio di un essere umano. Per avvalorare questo punto di vista sono stati citati i casi, anche recenti, di massacri, torture, e altre violazioni gravi dei codici di condotta militare ad opera di soldati di diversi eserciti.

Troppo facile. Un confronto serio deve essere impostato con soldati il cui comportamento non sia così ovviamente censurabile. E un tale confronto richiede di individuare le capacità percettive e cognitive necessarie a discriminare tra avversari, amici e astanti negli scenari bellici più vari e meno rigidamente stereotipati. I sistemi robotici attuali non possono, in generale, competere con un essere umano in relazione a questo tipo di capacità percettive.

Nell'opinione di chi scrive, dotare un robot autonomo delle capacità percettive richieste a un soldato per rispettare regole d'ingaggio e jus in bello equivale, in buona sostanza, a risolvere il problema dell'intelligenza artificiale tout court. Ma in ogni caso la questione richiede una riflessione etica più approfondita alla luce degli attuali sviluppi delle tecnologie robotiche, senza tralasciare un'analisi degli interessi sociali, politici ed economici in campo.


Scienza in rete è un giornale senza pubblicità e aperto a tutti per garantire l’indipendenza dell’informazione e il diritto universale alla cittadinanza scientifica. Contribuisci a dar voce alla ricerca sostenendo Scienza in rete. In questo modo, potrai entrare a far parte della nostra comunità e condividere il nostro percorso. Clicca sul pulsante e scegli liberamente quanto donare! Anche una piccola somma è importante. Se vuoi fare una donazione ricorrente, ci consenti di programmare meglio il nostro lavoro e resti comunque libero di interromperla quando credi.


prossimo articolo

Morti improvvise e vaccino anti Covid: il vaccino protegge molto di più

fiala di vaccino contro COVID

Uno studio canadese molto solido, costruito sui registri sanitari dell’Ontario, ha preso in considerazione oltre 6 milioni di persone, usando dati già ripuliti dai fattori di confondimento. I risultati confutano l’ipotesi che la vaccinazione contro Sars-CoV-2 comporti un rischio aggiuntivo di morte improvvisa per persone apparentemente sane di età tra 12 e 50 anni. È abbastanza per mettere la parola fine alle polemiche sull’aumento di morti improvvise da vaccino: la malattia è più pericolosa.

Sono passati sei anni dall’inizio della pandemia da Sars-CoV-2 e negli ultimi cinque più di 100 milioni di dosi di vaccini sono state somministrate, in una campagna di immunizzazione mondiale che non ha precedenti per dimensioni e tempistica.

La pandemia si è esaurita, la gravità dei quadri clinici dovuta alle infezioni si è fortemente attenuata (soprattutto grazie all’immunità indotta dalle vaccinazioni) e nuovi tasselli di conoscenze scientifiche si aggiungono a quanto già acquisito in corsa.