Perplessità sull’Intelligenza artificiale

/ 12.12.2022
di Alessandro Zanoli

Elon Musk annuncia al mondo che entro sei mesi sarà realtà l’impianto di un chip Neuralink nel cervello umano, quindi sarà più vicina la possibilità di interazione tra mente umana e mente digitale. Mentre l’utente medio di tecnologia sta ancora tentando a fatica di digerire e integrare, ad esempio, il concetto di Cloud e le sue applicazioni concrete nella vita quotidiana, Musk precorre senza alcuna remora i tempi, verso una integrazione del digitale nel biologico. La realtà è che sta proprio a noi, utenti passivi e oggettivamente obsoleti, di iniziare ad accelerare il passo, volenti o nolenti, prima di perdere il filo di quanto sta accadendo.

In una direzione informativa e di divulgazione si è mosso qualche settimana fa il TX Group Sa, una società «di intrattenimento, informazione, orientamento e assistenza» di cui fanno parte il gruppo editoriale Tamedia e «20minuti». Occorre osservare bene la dinamica aziendale: quello che per anni abbiamo considerato come colosso economico-editoriale, il Gruppo Tamedia, oggi è diventato soltanto il tassello di un’operazione di ampia portata, che mette in primo piano i suoi asset tecnologici, e soltanto in secondo piano quelli informativi. Il TX Group, quindi, ha promosso una «Conference» che si è tenuta sia in presenza sia sul web, dal titolo: Intelligenza artificiale e apprendimento delle macchine: il loro impatto sui media, sulla pubblicità, sull’intrattenimento, sui mercati digitali e le industrie fintech.

La giornata voleva proporre spunti di riflessione sul tema dell’intelligenza artificiale in vari settori economici e culturali. L’approccio era molto «americano», spettacolarizzato, quasi si trattasse di un evento che doveva servire a convincere degli investitori. E probabilmente lo era: il bersaglio eravamo noi partecipanti, attivi nel mondo dei media, dello studio e del commercio. A dispetto delle aspettative di chi scrive, la giornata non ha proposto contributi «tecnici» ma piuttosto genericamente informativi. È stato interessante notare come dai vari contributi dei relatori trasparisse una chiara volontà di vincere i dubbi attorno all’ntelligenza artificiale (IA). I vari professionisti del settore esprimevano un atteggiamento più da predicatori/venditori che da tecnici. Non hanno spiegato come funziona, insomma, ma solo cosa può fare e perché vale la pena di usarla. E le osservazioni riguardo ai dubbi etici mossi contro l’IA sono state del tipo già sentito rispetto ai produttori di OGM: «Stiamo attenti, se non lo facciamo noi ci sarà comunque qualcun altro che lo farà, e noi rischiamo di rimanere indietro». Le critiche, insomma, sembravano già previste sin dall’inizio. Il susseguirsi degli interventi dal tono positivo ed entusiasta era in effetti messo in discussione dai commenti istantanei presenti nella «chat» offerta ai partecipanti online. Con gentilezza e affabilità vi si invitava a rivolgere domande «a distanza» ai relatori, ma, di fatto, molte delle domande e dei commenti erano chiaramente ostili. Era palpabile la sfiducia nei parametri di decisione dell’IA e della sua capacità di seguire dei percorsi etici, spiegabili, responsabili. «Come potremo sapere se l’IA saprà capire “il significato” delle sue scelte?» osservava qualcuno con acume filosofico. E proprio dalle reazioni presenti nella chat ci è stato offerto un elemento interessante di riflessione. Uno degli interlocutori ha chiesto, senza avere risposta, se le raccomandazioni emesse dalla commissione europea sugli «Orientamenti etici per un’IA affidabile» sono prese in considerazione dai professionisti del settore. Nonostante la (prevedibile?) mancata risposta degli animatori della chat, a noi non resta che prendere nota del suggerimento. Il documento si trova qui: ec.europa.eu/futurium/en/ai-alliance-consultation.1.html. Non sarà molto, ma può essere un punto di riferimento autorevole, utile alle autorità che dovranno concentrarsi su questo settore, in cui si sta correndo molto velocemente e in cui non si sa bene se gli operatori siano interessati a comprendere le implicazioni connesse all’uso dell’IA.