Roboetica: tra fantascienza e realtà

Isaac Asimov è stato certamente uno dei padri concettuali (molto più “filosofico” che tecnologico) della moderna robotica; egli, in quanto scienziato e scrittore di fantascienza, fantasticò sulla struttura e sul funzionamento di organismi artificiali talmente evoluti da essere perfino dotati di una coscienza.

Tuttavia, a partire proprio da questo “traguardo”, Asimov si rese conto che le sue “creature” potevano facilmente tramutarsi in robot nemici della stessa umanità che li aveva generati e, per questa ragione, egli formulò le sue famose tre leggi:

    1. Un robot non può recare danno a un essere umano, né può permettere che, a causa del suo mancato intervento, un essere umano riceva danno.
    2. Un robot deve obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non contravvengano alla Prima Legge.
    3. Un robot deve proteggere la propria esistenza, purché questa autodifesa non contrasti con la Prima e la Seconda Legge.

che, senza perdere il livello di dettaglio intrinseco, possono essere riassunte in un unico “comandamento” etico: i robot non sono mezzi bellici, essi non devono combattere l’uomo e, anzi, lo devono aiutare a costo della loro stessa integrità.

A questo punto, la domanda che mi sovviene è: che tipo di coscienza può possedere un organismo che deve sottostare a simili condizionamenti ?

Per tentare di rispondere faccio una breve premessa. Nel campo dell’intelligenza artificiale e della robotica evoluta possono essere delineati due filoni di ricerca che si rifanno epistemologicamente a due concezioni contrapposte: il primo è quello che sostiene che la coscienza non è una prerogativa degli esseri umani, ma piuttosto che essa scaturisca dall’attività biofisica del sistema nervoso (in particolare dalla corteccia cerebrale) e quindi, con opportuni mezzi, essa può essere replicata (io appartengo a questa “fazione”), il secondo, al contrario, attribuisce il pensiero cosciente solo all’uomo e considera il comportamento di qualsiasi macchina intelligente come il risultato di un programma ben progettato ed eseguito da un computer di elevata potenza.

Analizzando le tre leggi di Asimov sono arrivato al punto di non sapere più da che parte egli stava, infatti se si ammette che la coscienza (in quanto tale) è replicabile, non ha alcun senso definire le linee guida che, non soltanto devono servire come base evoluzionistica, ma devono anche manifestarsi con tanta superiorità da oltrepassare il dominio di ogni altro comportamento. Il robot non può non rispettare queste regole e quindi deve essere programmato dall’uomo affinché ogni sua interazione con l’ambiente ne sia subordinata, ma ciò equivale ad affermare che la sua coscienza non è autonoma e capace di generare pensieri astratti e “scollegati” da qualsiasi schema prefissato.

Quindi è logico pensare che le macchine fantascientifiche di Asimov non siano altro che automi alla stregua dei comuni robot utilizzati per svolgere, ad esempio, compiti particolarmente pericolosi per l’incolumità dell’uomo come lo sminamento o l’ispezione di strutture pericolanti; ma questa idea, per quanto naturale, non concorda affatto con le spettacolari descrizioni dello scrittore, descrizioni che, a mio parere, rispecchiavano la sua volontà di vedere un giorno “uomini di silicio” eticamente perfetti, ma anche capaci di parlare, ridere, provare emozioni e perché no, anche innamorarsi !

Una massima popolare italiana recita: “Non si può desiderare contemporaneamente la botte piena e la moglie ubriaca” e in questo caso mi sembra che si adatti perfettamente al problema: o si spera nella coscienza o la si rifiuta e ci si limita ai programmi. Se si opta per la seconda possibilità è sempre possibile rispettare le tre leggi, a patto che non si costruiscano “Cyborg” da guerra che mirino alla distruzione del genere umano, ma se si sceglie la prima − e ciò non deve scaturire da una presa di posizione, ma da un’attenta analisi dei risultati conseguiti dall’intelligenza artificiale, dalle neuroscienze e dalla psicologia cognitiva, oltre naturalmente al progresso nel campo dell’elettronica − si dovrebbe accettare la sua più naturale conseguenza e cioè che le regole morali non possono essere prescritte, ma devono emergere a partire dalla constatazione che il loro rispetto è alla base della conservazione della specie e della qualità della vita.

Oltretutto un robot “emotivo” dovrebbe essere dotato di una sorta di connessione empatica con l’uomo e con i suoi simili: se un semplice programma lo costringesse ad aiutare una persona in difficoltà, esso svolgerebbe tale compito in modo assolutamente incosciente.

Se invece si presuppone un cervello artificiale dotato di strutture analoghe ai neuroni specchio si potrebbe pensare che il robot, dopo essersi reso conto di una data situazione pericolosa, la “viva virtualmente” e, in seguito a ciò prenda la decisione più opportuna.

L’etica è un risultato della coscienza e non il contrario, quindi se si desidera parlare di tale argomento applicato alle strutture robotiche si deve prima accettare che nessun ingegnere dovrà mai pretendere un’azione piuttosto che un’altra, egli, al massimo, potrà cercare di correggere gli errori, ma dovrà essere la macchina ad auto−assimilare le nuove regole dopo averle filtrate e adattate alla sua rappresentazione interna dell’ambiente.

D’altronde l’esecuzione letterale delle tre leggi è molto spesso in contrasto con la stessa morale umana: immaginate che un robot assista ad una lite tra due persone e ad un certo punto uno dei due estrae una pistola e minaccia l’altro di ucciderlo. Cosa deve fare il robot ?

Apparentemente esso dovrebbe intervenire al fine di salvare la vita all’uomo disarmato, ma questo non garantisce di certo la riuscita del suo intento: entrambi potrebbero divenire vittime del malintenzionato che, sentendosi minacciato, sarebbe costretto sparare senza nemmeno rendersi conto delle conseguenze.

Un buon negoziatore agirebbe sicuramente in modo differente… Nessun programma è in grado di valutare tutte le possibili ipotesi in tempo reale e solo la coscienza empatica (in quanto capace di escludere a priori tutte le opzioni esageratamente inadeguate) è idonea a far comprendere ad un eventuale astante, sia esso umano o artificiale, che qualche buona parola è più che sufficiente a disarmare l’uomo con la pistola.

Con ciò non intendo dire che un buon robot evoluto non debba essere amico dell’uomo e che la sua “missione” implicita non sia la convivenza pacifica, ma è molto importante tenere presente che una ricerca scientifica il cui obiettivo è subordinato ad un qualsivoglia insieme di imperativi etici non potrà essere destinata a forgiare nuove creature, al massimo essa può aspirare a migliorare gli automi già relativamente diffusi, esattamente come avviene nel campo delle automobili o delle telecomunicazioni.

Vale la pena quindi discutere di roboetica ? A mio parere, no. Aspettiamo che la scienza faccia il suo corso e, qualora un giorno ci si dovesse imbattere in un “Terminator”, prima scappiamo e poi, a mente serena, discutiamo del problema e cerchiamo di definire tutte quelle regole che “i nuovi figli dell’uomo” devono imparare a rispettare!


 

Share this post on:
FacebookTwitterPinterestEmail