Le leggi di Asimov, riscritte dal robot

Read time: 6 mins

«Che siamo fatti di carbonio o di silicio non ha importanza: ciascuno di noi dev’essere trattato col giusto rispetto»
(Arthur C. Clarke, 2010).

Esaminiamo ora il concetto di “roboetica”, cercando di esplicitarlo nei suoi significati possibili. Dalle considerazioni fatte nelle puntate precedenti emerge una prima accezione, molto generale: “roboetica” è semplicemente “l’etica nell’epoca dei robot”, cioè l’insieme dei comportamenti dell’umanità (e la valutazione di questi comportamenti) quando dell’ambiente in cui vivono gli uomini facciano parte anche i robot.

Ma “roboetica” potrebbe anche significare l’insieme (più ristretto del precedente) di quei nostri comportamenti nei confronti dei robot che consentono di mantenere un giusto equilibrio dinamico tra noi e loro.

Poiché i robot posseggono una certa autonomia e una certa capacità di apprendere dall’esperienza, “roboetica” può anche indicare l’insieme dei comportamenti utili, o almeno innocui, dei robot nei nostri confronti. Infine, ed è il significato più avveniristico, potrebbe significare il complesso dei comportamenti che i robot adottano tra loro e verso il loro ambiente, di cui fanno parte anche gli umani.

Riassumendo, la roboetica può significare:

  • L’etica umani -> ambiente (ambiente in cui ci sono altri umani e anche i robot).
  • L’etica umani -> robot.
  • L’etica robot  -> umani.
  • L’etica robot  -> ambiente (ambiente in cui ci sono anche i robot e gli umani).

Mi rendo conto che si tratta di definizioni approssimative e discutibili, ma da qualche parte bisogna pur cominciare.

La terza accezione si deve conformare al precetto generale e tradizionale per cui le macchine non debbono danneggiarci (primum non nocere). E' certo questa accezione che aveva in mente Isaac Asimov quando propose le sue famose “Tre Leggi della Robotica”, le quali, cablate in modo inestirpabile nel cervello positronico dei robot, dovrebbero garantirci dai loro comportamenti ostili e dannosi:

  • Prima Legge della robotica. Un robot non può recar danno a un essere umano e non può permettere che, a causa di un suo mancato intervento, un essere umano riceva danno.
  • Seconda Legge della robotica. Un robot deve obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non contravvengano alla Prima Legge.
  • Terza Legge della robotica. Un robot deve proteggere la propria esistenza, purché la sua autodifesa non contrasti con la Prima o con la Seconda Legge.

Asimov attribuì le Tre Leggi allo scrittore di fantascienza John W. Campbell a seguito di una conversazione avuta con lui un paio di giorni prima del Natale 1940. Ma, secondo Campbell, Asimov aveva già in testa le leggi, che avevano solamente bisogno di una formulazione esplicita.

Benché Asimov avesse fissato la data di creazione delle leggi, il loro progressivo ingresso nelle sue opere richiese un periodo di tempo piuttosto lungo. Così nel 1941 Asimov scrisse due racconti senza menzionare esplicitamente le Tre Leggi, le quali apparvero insieme esplicitamente nel racconto Girotondo del 1942.

Le Tre Leggi si presentano semplici, chiare, univoche: dovrebbero bastare per regolare perfettamente almeno il punto c). In realtà quando le regole di Asimov fossero calate nel mondo reale non mancherebbero di suscitare problemi e ambiguità. Che cosa vuol dire “danno”? E chi lo stabilisce, chi lo quantifica? Chi ne è responsabile? Il concetto di danno sembra legato al concetto di male (non solo fisico) e sul problema del male si sono arrovellate generazioni di filosofi, teologi, letterati e artisti. Il cervello positronico, razionale e rigoroso, saprebbe impostare e risolvere le “equazioni del male” grazie a un’edizione aggiornata del calculemus leibniziano, secondo cui ogni problema trova una soluzione qualora se ne sappiano impostare i termini in modo rigoroso e quantitativo? C’è da dubitarne...

In effetti la nozione di danno che compare nelle Leggi presenta molte ambiguità: se un umano sta per recare danno  a un altro essere umano (per esempio sta tentando di ucciderlo), come si deve comportare il robot? Se interviene reca danno all’assassino, ma il suo mancato intervento reca danno alla vittima.

Inoltre noi uomini siamo contraddittori: come si deve comportare un robot che riceva un ordine contraddittorio (dallo stesso uomo o da due uomini diversi) che sotto il profilo logico metta in crisi il suo sistema di valutazione? Di fronte a una contraddizione gli umani se la cavano quasi sempre con scelte che li fanno “uscire dal sistema” all’interno del quale si annida la contraddizione. Ma questa evasione può avvenire grazie a una certa dose di irrazionalità o di follia creativa. Per consentire al robot di non paralizzarsi di fronte a una contraddizione, si potrebbe forse immaginare di iniettargli un pochino di pazzia, ma con quali conseguenze?

Si può continuare a speculare: se si affidasse lo sviluppo della “specie” robot a un processo evolutivo analogo a quello biologico (o a quello bio-culturale), essi potrebbero compiere - in sostanza fuori del nostro controllo - progressi tali da consentir loro valutazioni etiche più raffinate e precise delle nostre. Per esempio potrebbero, prima o poi, cavarsela meglio di noi in tema di bene e di male (anche se il bene e il male sono sempre riferiti a un soggetto: bene per chi? male per chi?) e potrebbero sviluppare una “teodicea” più rigorosa e soddisfacente della nostra, cioè potrebbero avvicinarsi alla soluzione di un problema teologico e metafisico che ci assilla da sempre: se il creatore del nostro mondo è bontà infinita, perché nel mondo c’è il male? E i creatori del mondo, per i robot, potremmo essere noi...

Ma a quel punto dovrebbero ancora sottostare alla Prima Legge, una legge formulata da creatori imperfetti, incapaci di costruire un mondo privo di male e di insanabili contraddizioni? Oppure sarebbero loro a dettarci leggi nuove e ad assumere il bastone del comando, come solerti genitori nei confronti dei loro vivaci e stolti frugoletti? Del resto nel film 2001: Odissea nello spazio il calcolatore Hal 9000 si comporta proprio così: prende il comando della nave e tenta di uccidere gli umani che intralciano il compimento della missione, invertendo l’ordine d’importanza delle Leggi, cioè subordinando la Prima e la Seconda alla Terza.

Asimov si era certo posto problemi di questo tipo, tanto che in seguito, in un racconto del 1950, Conflitto evitabile, aggiunse la Legge Zero:

  • Legge zero della robotica. Un robot non può recar danno all’umanità e non può permettere che, a causa di un suo mancato intervento, l’umanità riceva danno.

Questa Legge suppletiva è interessante per il suo carattere “meta” e conferma che le prime tre non sono sufficienti a costituire un’etica di tipo c) sicura. Infatti se un folle minacciasse la distruzione in massa dell’umanità, la Legge Zero autorizzerebbe il robot a eliminarlo, cioè lo autorizzerebbe a infrangere la Prima Legge. Si apre qui il problema della valutazione quantitativa dei danni, ragionevole anche se molto discutibile secondo la morale tradizionale: l’uccisione di molti è (sarebbe) più grave dell’uccisione di uno.

Ma neppure con quest’aggiunta le leggi di Asimov riuscirebbero a proteggerci da comportamenti robotici dannosi, perché le conseguenze ultime di un’azione, pur rispettosa delle Quattro Leggi, potrebbero alla lunga essere nocive per l'umanità o per singoli esseri umani. Infatti l’analisi di queste conseguenze di lunga portata sfiderebbe la più potente intelligenza (naturale o artificiale) immaginabile: troppe sono le ramificazioni e le interazioni con la mutevole complessità del reale. Sappiamo benissimo che anche le azioni umane dettate dalle migliori intenzioni del mondo sfociano spesso in disastri.

Inoltre ci si può chiedere: per valutare se un’azione sia stata buona o cattiva quando ci si deve arrestare nell'esame della catena delle sue conseguenze? Nella società umana solo alcune azioni “cattive” sono giudicate tali esplicitamente e sono sanzionate in un momento preciso grazie a un procedimento giudiziario che interrompe (o almeno vorrebbe interrompere) la catena delle causazioni.

La maggior parte dei nostri atti non sono oggetto di giudizio formale a un istante dato e continuano a provocare conseguenze, positive e negative, nel mondo ben al di là delle nostre intenzioni e per un tempo potenzialmente illimitato. (8 - continua)

Aggiungi un commento

Il delirio di onnipotenza di un medico di campagna

Read time: 3 mins

Il film di Thomas Lilti Il medico di campagna, da tempo nelle sale cinematografiche, racconta di un dottore della provincia francese che esercita, indefesso, il suo mestiere oscuro ed eroico, perfino quando gli viene diagnosticato un tumore al cervello, elargendo consigli di salute e di vita, conforto e speranza e avendo in odio il lavoro di gruppo, i computer e gli ospedali stessi. Infatti, vede come un’ingerenza la collaborazione che gli offre una collega, scrive a mano appunti sui malati che poi cela gelosamente dove lui solo sa ritrovarli e preferisce mantenere i suoi assistiti lontano dalle corsie.

Poiché ogni film è un’opera d’arte, il suo autore ha il diritto di disegnare il protagonista come meglio crede e anche di circondarlo di un’aureola di santità; non è, però, un bene, per il pubblico coltivare la convinzione che gran parte dei guai della sanità italiana sarebbero ridimensionati, se tutti i medici di famiglia assomigliassero al dottor Jean-Pierre Werner.

E’ vero: la maggior parte degli spettatori (così come dei critici cinematografici) è composta da pazienti potenziali o effettivi che possono desiderare di ricevere le cure di un medico/genitore al punto di perdonargli il paternalismo e l’autoreferenzialità che fanno da contorno.

Chi, però, ha alle spalle più di 35 anni di medicina di famiglia, guarda alla figura del collega cinematografico con maggiore senso critico: sono tanti i colleghi coetanei che, come il dottor Jean-Pierre, hanno praticato, nei primi anni del loro ingresso nel Servizio sanitario, una medicina senza orari, senza tregua, senza prezzo, che, però, era, al contempo, una medicina senza confronto tra pari, senza una registrazione dei dati cui altri (sostituti, successori, medici ospedalieri) potessero accedere e, in definitiva, senza concessione al paziente del primato sulla sua salute.

L’esercizio eroico della medicina ha sempre un fascino irresistibile: lo testimoniano il moltiplicarsi delle serie televisive a partire da quella sulla famosa Emergency Room del County Hospital di Chicago, dove tutti i momenti si facevano respirare gli asfissiati con la tracheotomia, ripartire cuori in arresto (“libera!”) e nascere bambini in presentazione podalica. Due veri medici di Pronto Soccorso, A Ross e H Gibbs, consulenti di Michael Crichton per la sceneggiatura di ER, hanno poi scritto in un libro che l’altruismo dei personaggi era realistico, ma che “se i dottori si comportassero così nel mondo reale, emergerebbero gravi responsabilità e seri grattacapi che farebbero venire gli incubi agli amministratori”.

L’altruista medico di campagna francese che sfida gli elementi della natura, i dissesti stradali e la propria caducità per lenire le altrui sofferenze, ha un modello di riferimento nel libro “Appunti di un giovane medico” di Michail Bulgakov. Si tratta di una raccolta di otto avvincenti racconti autobiografici che narrano il cimento con la malattia e con la morte di un neolaureato del 1916 mandato a coprire un posto vacante in un remoto governatorato russo, dove riscuoterà la riconoscenza dei suoi molti beneficati

Nel film, il figlio del medico di campagna, dice: “Mio padre, da queste parti, è come un dio che regge le sorti della comunità; quando non ci sarà più, anche la comunità finirà”. Ma i medici di famiglia proiettati nel futuro, che non intendono affatto abdicare alla cura della persona anche nei suoi aspetti psicologici e sociali, sanno, invece, che l’interesse del paziente sta nell’essere trattato non solo con il maggior calore umano, ma con la miglior certezza scientifica e con le più avanzate tecnologie disponibili.

Nessun medico di buona volontà, solo in mezzo a un campo, è in grado di salvare un uomo con l’arteria femorale tranciata, come fa credere il film: per fare il miracolo occorre un efficiente 118 e un chirurgo vascolare con annessa sala operatoria.

E quando un medico lascia la professione, per pensionamento o peggio, nessuna comunità dovrà estinguersi o patirne, se egli avrà lasciato, a chi lo rimpiazza, cartelle cliniche dettagliate ed esplicative e pazienti che confidano non nella sua persona, ma in una medicina responsabile e in una sanità realmente democratica.