ChatGPT siamo noi

/ 06.02.2023
di Alessandro Zanoli

Sarei stato tentato di far scrivere questo articolo a ChatGPT (la piattaforma online che permette concretamente di chattare con l’intelligenza artificiale e di sperimentare le sue abilità nella redazione di testi). Più che altro per vedere se qualcuno se ne sarebbe accorto. In questi giorni i giornalisti (categoria professionale tra le più preoccupate dalla nuova invenzione) stanno sviscerando il meccanismo alla ricerca delle sue pericolose potenzialità. Dopo aver letto una decina di esperienze altrui in vari campi dello scibile specialistico l’impressione è che le potenzialità dello strumento siano piuttosto limitate. Se è vero che i suoi programmatori gli hanno fatto ingollare l’intero contenuto di Wikipedia in inglese (e perché solo in inglese? Un bell’esempio di sciovinismo culturale, specialmente se gli si chiederà qualcosa a proposito della gastronomia…) ci si può aspettare che il livello della conversazione non si riveli particolarmente entusiasmante. Chi chiacchiererebbe con la Treccani?

ChatGPT oltretutto è calibrato su parametri di political correctness molto alti. Il che lo rende uno strumento del tutto inutile nel campo della comunicazione contemporanea. In epoca di fake news a oltranza, i testi prodotti dal meccanismo potrebbero rivelarsi poco più che educatissimi esercizi di stile, volti a non offendere nessuna suscettibilità. Non si riesce a capire infatti la preoccupazione espressa da molti commentatori, i quali vedono nell’algoritmo intelligente una possibilità di automatismo della bugia meccanizzata. Che ciò sia peggiore di quanto succede già oggi, è difficile immaginarlo. Ma lasciando da parte certo catastrofismo paranoico, da quel che si legge ChatGPT dà l’impressione di esprimersi attraverso la voce del secchione da primo banco. Anche quando vuol fare dell’umorismo, risulta un po’ ingessato e saccentello. Quando vuol essere gentile e affabile, pare legnoso e poco simpatico. Un po’ una Signorina Rottermeier ingentilita. Anzi, appunto: abituati come siamo dalle consuetudini linguistiche di umani biologici, siamo messi in difficoltà da un fattore in più. ChatGPT ci parla da uomo, da donna o da cos’altro? Questo è un fattore di curiosità che ci rende attenti su come il nostro modo di ascoltare il mondo sia influenzato tanto da attenderci un punto di vista orientato sul genere. Da un uomo ci attendiamo, senza volerlo ma per abitudine invalsa, una comunicazione più asciutta e misurata; da una donna una maggiore attenzione alle sfumature di umanità e di collaborazione. Ma da un algoritmo?

Fa sorridere l’esperienza riportata su un quotidiano statunitense in cui un giornalista malizioso ha provato a gestire le interazioni con le sue conoscenze su Tinder utilizzando i suggerimenti ricevuti da ChatGPT. L’esperimento si è rivelato come fallimentare nella maggior parte dei casi: troppo scialbe, prevedibili, equilibrate e insipide le interazioni del meccanismo. Eppure… in qualche caso sono funzionate. Ciò dimostra che, anche in termini sentimentali, qualcosa di ChatGPT è in ognuno di noi. E questo è l’aspetto preoccupante della faccenda, dunque. Non quanto ChatGPT somigli a noi, ma il contrario, quanto noi somigliamo a lui. Se sarà usato dagli studenti per fare i compiti, come paventano gli educatori, scriverà probabilmente come molti di loro fanno già oggi, copiando Wikipedia. E lo stesso si potrà dire a proposito del lavoro dei giornalisti. Resta da vedere se in altri campi (medicina, diritto, finanza) la «mediocrità informativa» dello strumento potrà trovare applicazioni reali.

Il problema sarà senz’altro quello della responsabilità. Quando un professionista di qualsiasi settore utilizzerà ChatGPT per prendere una decisione, su chi ricadrà la colpa in caso di errore? Perché la «macchina pensante» non sarà mai in grado di risolvere in modo positivo tutti i problemi e, soprattutto, sollevarci dalle nostre responsabilità. Perché forse a ChatGPT non chiederemo soluzioni intelligenti, ma soprattutto alibi alle nostre manchevolezze.