fbpx L'etica del soldato robot | Scienza in rete

L'etica del soldato robot

Primary tabs

Tempo di lettura: 3 mins


Robot Talon in azione

L'uso di sistemi robotici in ambito bellico è una realtà consolidata. Il Packbot è un sistema robotico dotato di telecamera e manipolatori, progettato per individuare e far brillare mine o proiettili inesplosi.

Il Talon SWORDS è un sistema robotico cingolato equipaggiabile con mitragliatrici e piattaforme varie per il lancio di granate e missili anticarro. Il Talon è in grado di navigare in modo autonomo nell'ambiente con l'ausilio di un GPS, ma le armi di bordo non sono controllate autonomamente dal sistema robotico e vengono azionate in remoto da un soldato.

Entrambi i sistemi sono stati ampiamente impiegati in Iraq e Afghanistan dall'esercito statunitense. Sono operativi anche alcuni sistemi robotici in grado di prendere la decisione di sparare e di agire di conseguenza. E' il caso della sentinella robotica SGR-A1, dotata di una mitragliatrice e di un sistema di visione in grado di individuare una persona anche in condizioni di illuminazione notturna. Questo sistema viene utilizzato dall'esercito sudcoreano per sorvegliare la zona demilitarizzata al confine tra le due Coree, alla quale si suppone che possano accedere solo dei nemici. L'ipotesi che guida il sistema di controllo di SGR-A1 – e cioè che ogni oggetto animato inquadrato nel mirino sia un nemico – non è, in generale, un'ipotesi valida sui campi di battaglia. E' infatti possibile inquadrare nel mirino soldati del proprio esercito, civili inermi, feriti dell'esercito nemico che non sono in grado di nuocere, avversari che hanno già espresso la volontà di arrendersi.

Eppure sono in corso numerosi progetti di ricerca per lo sviluppo di soldati robotici autonomi, e cioè in grado di controllare e usare per uccidere delle armi senza essere soggetti alla supervisione diretta di un essere umano.

Questi sistemi saranno in grado di distinguere tra un nemico e un civile inerme? Più in generale, i soldati robot saranno dotati delle capacità di discriminazione richieste a un essere umano perché possa qualificarsi come un combattente e non come un massacratore? Non si può evitare di affrontare questo problema se vogliamo che un soldato robot autonomo sia in grado di rispettare prescrizioni morali giustificabili in base a varie dottrine etiche o di comportarsi in conformità con le regole militari d'ingaggio e con le prescrizioni dello jus in bello codificate attraverso convenzione di Ginevra e altri protocolli internazionali.

Alcuni ricercatori nel settore della robotica hanno recentemente espresso – anche attraverso i giornali (International Herald Tribune, 26/11/2008) – la convinzione che i soldati robotici autonomi saranno, e in alcuni casi già sono, in grado di rispettare le prescrizioni morali e giuridiche del caso altrettanto bene o anche meglio di un essere umano. Per avvalorare questo punto di vista sono stati citati i casi, anche recenti, di massacri, torture, e altre violazioni gravi dei codici di condotta militare ad opera di soldati di diversi eserciti.

Troppo facile. Un confronto serio deve essere impostato con soldati il cui comportamento non sia così ovviamente censurabile. E un tale confronto richiede di individuare le capacità percettive e cognitive necessarie a discriminare tra avversari, amici e astanti negli scenari bellici più vari e meno rigidamente stereotipati. I sistemi robotici attuali non possono, in generale, competere con un essere umano in relazione a questo tipo di capacità percettive.

Nell'opinione di chi scrive, dotare un robot autonomo delle capacità percettive richieste a un soldato per rispettare regole d'ingaggio e jus in bello equivale, in buona sostanza, a risolvere il problema dell'intelligenza artificiale tout court. Ma in ogni caso la questione richiede una riflessione etica più approfondita alla luce degli attuali sviluppi delle tecnologie robotiche, senza tralasciare un'analisi degli interessi sociali, politici ed economici in campo.


Scienza in rete è un giornale senza pubblicità e aperto a tutti per garantire l’indipendenza dell’informazione e il diritto universale alla cittadinanza scientifica. Contribuisci a dar voce alla ricerca sostenendo Scienza in rete. In questo modo, potrai entrare a far parte della nostra comunità e condividere il nostro percorso. Clicca sul pulsante e scegli liberamente quanto donare! Anche una piccola somma è importante. Se vuoi fare una donazione ricorrente, ci consenti di programmare meglio il nostro lavoro e resti comunque libero di interromperla quando credi.


prossimo articolo

Fibrosi cistica: una persona su trenta è portatore sano. E non lo sa.

Immagine tratta dalla campagna "Uno su trenta e non lo sai" sul test del portatore sano della fibrosi cistica: persone viste dall'alto camminano su una strada, una ha un ombrello colorato

La fibrosi cistica è una malattia grave, legata a una mutazione genetica recessiva. Se è presente su una sola copia del gene interessato non dà problemi. Se però entrambi i genitori sono portatori sani del gene mutato, possono passare le due copie al figlio o alla figlia, che in questo caso svilupperà la malattia. In Italia sono circa due milioni i portatori sani di fibrosi cistica, nella quasi totalità dei casi senza saperlo. La Fondazione per la Ricerca sulla Fibrosi Cistica sta conducendo una campagna informativa sul test del portatore sano, che consente ai futuri genitori di acquistare consapevolezza del proprio stato.

Se due genitori con gli occhi scuri hanno entrambi un gene degli occhi chiari nel proprio patrimonio genetico, c’è una probabilità su quattro che lo passino entrambi a un figlio e abbiano così discendenza con gli occhi chiari. Questo è un fatto abbastanza noto, che si studia a scuola a proposito dei caratteri recessivi e dominanti, e che fa sperare a molti genitori con gli occhi scuri, ma nonni o bisnonni con gli occhi celesti, di ritrovare nei pargoli l’azzurro degli occhi degli antenati.