OpenAI come «Apriti Sesamo»?

/ 27.02.2023
di Ovidio Biffi

Ci ha già pensato l’amico Alessandro Zanoli nella sua rubrica su questo giornale a spiegare (bene) cos’è e come funziona una ChatGPT, proclamandosi sostanzialmente convinto che noi umani avremo sempre la meglio nei confronti della nuova «macchina pensante» che sta rivoluzionando il mondo dei mezzi di informazione. Vorrei avere la sua stessa convinzione, perché nel giro di pochi giorni alcuni fatti hanno scombussolato il grado del mio ottimismo. Il primo segnale è giunto da Matteo Cheda. Dalla riserva delle sue riviste sul consumo (ma non solo) ha scelto «Spendere Meglio» per presentare un articolo, assai ben fatto se non perfetto, sul denaro contante. Solo verso la fine fa sapere ai lettori di non aver scritto lui quel testo, ma un robot evidentemente già operativo anche da noi: «Si chiama ChatGPT e usa l’intelligenza artificiale» spiega Cheda, aggiungendo che lui si è limitato ad andare su chat.openai.com e a chiedere al software «un articolo sulla scomparsa del denaro contante».

Pochi giorni dopo ecco un bis. Nella newsletter curata ogni sabato sul «Corriere della Sera» il nostro collaboratore Federico Rampini rivela di aver compiuto un analogo esperimento. Ma davanti al risultato Rampini ammette di aver provato, oltre a stupore e imbarazzo, anche l’impressione di aver perso! Stessa partenza anche per lui che, imitando ciò che già fanno tanti studenti universitari americani, ha chiesto all’intelligenza artificiale la stesura di un breve saggio di geopolitica: «Ho scelto un tema che conosco, sul quale ho scritto spesso, e del quale tornerò a occuparmi sicuramente in futuro: l’invasione cinese in Africa. Ho chiesto a ChatGPT di scrivere un’analisi di cinquemila parole. Lo ha fatto in cinque minuti. Ho letto il risultato: dignitoso. Non solo per la forma, ortografia e sintassi di un inglese perfetto. Anche il contenuto: una sintesi che definirei equilibrata e aggiornata di informazioni e analisi correnti sul tema della Cina in Africa. Posso fare meglio, io? Per adesso sì, lo dico senza superbia (…) Però sono preoccupato lo stesso».

Davanti a queste «magie» è naturale immaginare che, in un futuro sicuramente vicino, ci sarà qualche altro balzo in avanti: il primo giornale online, la prima rivista specializzata, o magari anche una prima trasmissione televisiva tutti artificiali, cioè prodotti giornalistici in cui confluiscano algoritmi, software e intelligenze artificiali. È però facile anche intuire quali pericoli potrebbero nascondersi dietro alla facciata di un mondo mediatico in teoria perfetto e credibile, magari anche tecnicamente controllabile, ma comunque riconducibile a un’AI, a una intelligenza artificiale! Questo spiega perché per ora resiste la convinzione (in me tarata da mezzo secolo di professionalità) che l’intelligenza artificiale non potrà mai garantire quello che oggi ancora intendiamo come informazione indipendente, libera, obiettiva o di servizio pubblico. Di conseguenza non credo che quanto promette il fantastico progresso tecnologico possa essere accettato ignorando pericoli e dilemmi che ricadranno sui nostri figli, nipoti, amici e concittadini (pochi o milioni che siano) se accetteremo supinamente l’avvento delle «macchine pensanti», o, peggio, di un’unica orwelliana «macchina pensante».

L’amico Charlie (la preziosa newsletter domenicale de Il Post.com) attenua un po’ queste fisime ricordandomi come dietro l’angolo ci siano sempre opportunità e disastri e che, per scongiurare questi ultimi, occorre «immaginare con fantasia le prime, le opportunità, anche per chi ci tiene a una buona informazione, e non solo al risparmio dei costi: le intelligenze artificiali in aiuto della qualità dei contenuti e non solo della loro quantità». Giudizi speranzosi rafforzati, pensate un po’, dalla stessa OpenAI che ideando ChatGPT ha rivolto un perentorio «Apriti Sesamo» a tutto il mondo mediatico: l’azienda californiana sta già lavorando a un’altra intelligenza artificiale la cui missione consiste nel riconoscere i testi scritti… da altre intelligenze artificiali. Sulle ali di questo ottimismo un po’ surreale c’è però anche una grossa incognita: OpenAI è sì un’«organizzazione senza fini di lucro», quindi eticamente rispettabile nonostante l’assedio di vari investimenti miliardari delle Big Tech; ma tra i suoi fondatori annovera anche un bislacco e imprevedibile visionario come Elon Musk. Di colpo ritrovo tutti i miei timori.