Parlare con il computer

/ 03.04.2023
di Alessandro Zanoli

«Computer, a che distanza si trova il prossimo pianeta abitabile?». «Computer traccia una rotta per Alpha Centauri, evitando il campo di asteroidi». «Computer, prepara un tè cardassiano, con molto zucchero». Nessuno, credo, si è mai posto quesiti etici e morali di fronte a queste normalissime richieste, così come per anni ci sono state proposte dalla serie televisiva di Star Trek. Il dialogo, l’interazione «vocale» con un apparato informatico, in queste condizione fantascientifiche, sembra una semplice normalità quotidiana. Anzi, una delle condizioni di base dell’interazione tra uomo e macchina. Evidentemente a un modello di collaborazione così naturale deve sottostare una componente di intelligenza artificiale molto sviluppata, in grado non soltanto di interpretare i comandi ma di eseguire una serie di operazioni matematico/ingegneristiche di grandissima complessità.

Quello che i realizzatori di Star Trek non si sono mai poste, credo, sono le preoccupazioni etiche attorno a un apparato di queste dimensioni e potenza. Il computer di bordo dell’Enterprise, insomma, è per definizione «buono». Anzi, sono rari i casi in cui può rivelarsi inaffidabile, impazzire, tanto da far diventare l’evento un ulteriore spunto per alcune puntate della serie. Perché noi oggi, quindi, siamo tanto spaventati dall’intelligenza artificiale? Persino la fantascienza ci prospetta forme di interazione pacifica e utili tra uomo e macchina (la fantascienza che, bisogna dirlo, molto spesso ha indovinato sulla nostra evoluzione tecnologica). In questi giorni, invece, su varie testate gli articoli allarmanti si moltiplicano. Come già detto, ho il dubbio che questo sia indizio di una preoccupazione corrente tra i pubblicisti, i primi che temono di veder messi in discussione il loro profilo professionale e le loro skill… Di fatto, come spesso succede, la realtà è andata già ben oltre le preoccupazioni più o meno giustificate. L’intelligenza artificiale è tra noi da tempo, e si muove già quasi con la stessa naturalezza con cui dialoga con il capitano Kirk o con Jean Luc Picard (i motori di ricerca che utilizziamo cento volte al giorno ne sono l’esempio più semplice e meno appariscente).

Al di là di ChatGPT, che sembra essere in questi giorni il mostro più spaventoso, la strumentazione digitale intelligente ha raggiunto una pervasività e però anche un’utilità pratica a cui sarà difficile rinunciare, d’ora innanzi. Il punto curioso ma filosoficamente interessante è, ci sembra, che ricercatori e programmatori stanno facendo di tutto per sviluppare una possibilità di rapporto verbale, diretto, con il computer. Come se si volesse a tutti i costi trasformare una macchina elettronica in un interlocutore affidabile. Il prossimo passaggio di ChatGPT, potremmo scommettere, sarà l’implementazione di una capacità dialogica «a voce».

Un esempio che riguarda il campo di attività di chi vi scrive qui: negli ultimi mesi, sto usando in modo assolutamente massiccio una piattaforma per il riconoscimento vocale, offerta gratuitamente sul web, grazie alla quale posso dettare ad alta voce i miei articoli al computer, mentre «lui» (uso un pronome che lo dà già per umanizzato) li trascrive istantaneamente su un elaboratore di testi. Un aiuto ormai difficilmente sostituibile, per me e, penso, per chi fa questo mestiere. È un primo passo perfettamente riuscito che apre la strada a quella interazione tra intelligenze naturali e artificiali, che sembra tutti si stiano aspettando dai computer.

Costruire l’essere perfetto, che sappia superare tutte le nostre defaillances e possa prendersi cura delle nostre debolezze, è un’aspirazione atavica dell’uomo. Grazie al progredire della tecnologia ci stiamo avvicinando alla meta. Forse è inevitabile provarci: il punto è che non sembriamo capaci di gestire il passaggio (varie esperienze mostrano che di fatto l’intelligenza artificiale non è necessariamente «buona» né intelligente, e ciò per colpa dei programmatori, evidentemente), né sappiamo se potremo permetterci i costi energetici che tale scoperta comporta: Chat-GPT, tra l’altro, consuma un sacco di elettricità. Sull’Enterprise sono riusciti a risolvere il problema, noi siamo ancora lontani.