Fresca del Gran Prix Literatur consegnatole settimana scorsa, intervistata sul suo ultimo romanzo distopico e anche un po’ inquietante (GRM. Brainfuck) ambientato nel prossimo futuro in cui ai cittadini londinesi viene impiantato un microchip sottopelle e molti di loro vivono con il reddito di cittadinanza, l’autrice svizzera Sibylle Berg ci invita ad informarci con coscienza e competenza sulle nuove tecnologie e le loro implicazioni sulle nostre vite: senza conoscenza non potremo difendere la nostra privacy e la nostra sicurezza. Ecco allora che mi sono venute in mente le parole di Sundar Pichai, CEO di Google, a Davos: «L’intelligenza artificiale vale più di fuoco e elettricità». Magari qualcuno di voi penserà che sono le solite cose, l’intelligenza artificiale cambierà le nostre vite, avrà un forte impatto sociale, arriveranno i robot e le macchine a sostituirci nei lavori ripetitivi, le automobili si guideranno da sole, certo c’è la questione etica ma anche di questo se ne parla di continuo, migliorerà la nostra qualità di vita, le diagnosi mediche saranno più veloci ed accurate in particolare per malattie come i tumori... Insomma sarà una grande rivoluzione. Ma non è tutto qui e non è così semplice.
Viviamo in un’epoca in cui un’invenzione tira l’altra e non si fa in tempo ad abituarsi ad una previsione che subito ne arriva una seconda a coglierci impreparati. Per questo le parole di Sibylle Berg non vanno sottovalutate e dobbiamo essere in chiaro sulle nostre responsabilità umane e sociali se non vogliamo che la rivoluzione ci travolga. Richard Socher, 35 anni, di Dresda, soprannominato il bambino prodigio della Silicon Valley, esperto di intelligenza artificiale e ottimista tecnologico ci dice che è fondamentale regolamentare la tecnologia, Sundar Pichai in proposito usa parole più eloquenti «la tecnologia deve essere imbrigliata» non basta che venga realizzata con i migliori propositi. Richard Socher sottolinea la responsabilità della politica e delle aziende nell’aiutare le persone a prepararsi e ad adattarsi per tempo perché i cambiamenti sociali saranno enormi. In proposito è utile ricordare che c’è la normativa europea in materia di protezione dei dati e anche un codice etico per l’intelligenza artificiale redatto da 52 esperti selezionati dal mondo accademico, dell’industria e della società civile che vi hanno lavorato per conto della Commissione europea. Centrale, in questo documento, è il ruolo della dignità umana per cui l’intelligenza artificiale non dovrà mai danneggiare gli esseri umani, gli animali o la natura e le macchine intelligenti dovranno sempre operare in favore della realizzazione dell’autonomia dell’uomo e mai riducendola. Peccato che quanto contenuto in questo codice non sia vincolante, trattasi infatti di raccomandazioni o linee guida alle quali aderire liberamente.
Dunque dicevo, un’innovazione tira l’altra e in tempi rapidi. Questo ci riporta al discorso di Sundar Pichai a Davos e a quello che lui ha definito il prossimo passo avanti: il computer quantistico, una macchina che sfrutta le leggi della meccanica quantistica e della fisica in grado di processare una quantità di dati ad una velocità infinitamente superiore rispetto ai computer tradizionali e questo perché non funziona secondo calcoli sequenziali. Insomma è in grado di calcolare e fornire più soluzioni ad un problema complesso compiendo una sola operazione e in minor tempo. Spiegato con un titolo dell’Ansa: «Il computer quantistico è reale. In tre minuti test da 10’000 anni». Detto in parole semplici, il computer quantistico, in grado anche di simulare la natura e la sua struttura molecolare, è capace di un multitasking mostruoso. Per aggiungere un po’ di concretezza e ricordarci di Sibylle Berg, tra qualche anno il computer quantistico associato all’intelligenza artificiale sarà in grado di violare la crittografia che oggi assicura i nostri dati, le nostre comunicazioni e le nostre operazioni bancarie. Ergo serviranno nuove tecniche di protezione dati a prova di quanti. Ma non illudetevi che ci sia tempo, basta guardarsi in giro per accorgersi che la nostra privacy è già tangibilmente a rischio. Come e perché ve lo racconterò nella prossima puntata, intanto vi lascio rinnovando l’invito di Sibylle Berg: informiamoci o i cambiamenti ci coglieranno impreparati.