Sin da quando, nel 1956 al Dartmouth College di Hanover, New Hampshire, fu coniata l’espressione artificial intelligence, si è avviato un vasto dibattito sulla sua fattibilità e sui criteri che si sarebbero dovuti adottare per decretare il suo eventuale successo. In particolare, al centro della discussione c’era l’intelligenza umana, vista da alcuni come perfettamente riproducibile nella macchina e, da altri, come una qualità ancora largamente sconosciuta e, comunque, prerogativa irriproducibile dell’essere umano. Dopo tanti anni da allora, «intelligenza artificiale» è divenuta un’espressione linguistica di uso comune ma ciò non significa affatto che l’obiettivo sia stato raggiunto. Oggi disponiamo sicuramente di dispositivi elettronici e informatici, di elevata complessità, capaci di svolgere funzioni di notevole efficacia nel riprodurre azioni, comparazioni, deduzioni e valutazioni precedentemente svolte dagli esseri umani. Tuttavia, anche se spesso questi dispositivi, sia hardware sia software, incorporano moduli non strettamente deterministici ma anche fuzzy, cioè, alla fine, probabilistici, essi consistono comunque in macchine in grado di sviluppare calcoli, sia matematici sia logici, implementando uno o più algoritmi ed è assai dubbio che il nostro cervello si limiti a tutto questo.
Sul tema è stata prodotta un’ampia letteratura ma sta emergendo una nuova tendenza. I difensori della completa fattibilità dell’intelligenza artificiale insistevano quasi sempre su una formula che suonava così: se sono in grado di scrivere un programma che si comporti come farebbe l’uomo con la sua intelligenza, allora non si vede perché quel programma non possa essere definito intelligente. Naturalmente questa posizione, chiaramente orientata ad un criterio «comportamentistico», non è stata accettata da tutti e molti si sono affrettati ad indicare funzioni dell’intelligenza umana che sfuggono alla possibile formalizzazione nella macchina, come l’intuito, il dubbio, la scoperta di problemi e così via. Personalmente, in numerose pubblicazioni, ho sempre sostenuto la tesi secondo cui, in breve, l’intelligenza artificiale che conosciamo è sicuramente intelligenza ma, appunto, artificiale. Dunque, si tratta di un’intelligenza che non può che presentare più o meno vistose differenze con quella umana così come qualsiasi oggetto o processo artificializzato (di cui la nostra vita quotidiana è piena, dalla cucina alla medicina, per capirci) presenta sempre qualche proprietà diversa dall’oggetto o dal processo naturale da cui ha preso lo spunto, a motivo, fra l’altro, dei materiali e delle metodiche adottate per realizzarlo. Inoltre, sotto il profilo logico, se l’artificiale convergesse sul naturale riproducendone tutte le proprietà, e solo quelle, allora non saremmo più di fronte all’artificiale ma al naturale e saremmo quindi rimasti, o saremmo tornati, all’interno della natura, delle cose che essa genera e del modo in cui lo fa.
È comunque curioso che, a distanza di alcuni decenni, la definizione che ho chiamato comportamentistica, torni ad essere attuale ma su un fronte, la robotica, che può essere inteso come estensione dell’intelligenza artificiale. Si tratta di un fenomeno che sta assumendo gli stessi contorni sopra descritti ma che, questa volta, ha a che fare con un tema assai più delicato: la morale e la coscienza che la genera. In effetti, sta gradatamente emergendo una discussione che credo diverrà di notevole ampiezza nei prossimi anni, circa la possibilità, o meno, di attribuire ai robot proprietà morali come la responsabilità, nonché diritti e doveri andando molto più in là rispetto alle note e preveggenti leggi di Isaac Asimov. Vediamo un paio di citazioni da parte di studiosi di robotica da cui scaturisce la nuova ondata di antropomorfismo. Secondo D. Levy, «… se una macchina esibisce un comportamento che normalmente viene riconosciuto come un prodotto della coscienza umana, allora dobbiamo accettare che anche la macchina abbia una coscienza». Altrettanto, per J. Danaher «I robot possono possedere un significativo status morale se essi sono in grado di esibire un comportamento in linea di massima equivalente a quello esibito da altre entità alle quali tutti noi attribuiamo uno status morale. Ciò potrebbe accadere molto presto». E ancora, a parere di J.S. Gordon, «Se i robot fossero capaci di sviluppare forme di ragionamento morale (moral-reasoning) e di prendere decisioni ad un livello comparabile con quello umano, allora si dovrebbe guardare ai robot non solo come entità moralmente passive, ma anche come agenti pienamente morali con corrispondenti diritti morali». Inoltre, come era già accaduto per l’intelligenza artificiale diciamo, classica, si pensa addirittura, come sostengono J.A. Reggia, G.E. Katz e G.P. Davis che «…lo sviluppo di sistemi di controllo neurocognitivo per i robot e il loro impiego per scoprire correlazioni computazionali della coscienza, fornisce un importante base per capire in cosa consista la coscienza, e […] mette a disposizione una strada percorribile per sviluppare una macchina cosciente».
Come si vede, tutto viene ancora una volta ricondotto alla comparazione con l’uomo: se la macchina, in fatto di questioni morali, appare o si comporta come farebbe l’uomo, allora perché negarle le stesse proprietà morali? A questo punto la discussione si farebbe lunga e complessa, a partire dal fatto che, in ogni caso, la responsabilità e i principi morali che la macchina può certamente esibire vanno però ricondotti agli algoritmi, umani, che la governano. Basterà qui sottolineare che anche per la morale dovrebbe valere, per quel che riguarda la macchina, il principio della sua artificialità, con tutte le differenze che ciò comporta soprattutto in un ambito, come quello etico, nel quale sono in gioco questioni di rilevanza strategica per il genere umano. In definitiva, più che l’intelligenza o la morale dell’uomo, al centro del dibattito andrebbe posto l’artificiale in quanto tale. Le sue straordinarie possibilità ma anche la sua inesorabile alterità rispetto alle cose della natura, uomo incluso.