La diffusione del deepfake

La presenza nel web di video e audio falsi è sempre più invasiva, sofisticata e per nulla innocua
/ 08.03.2021
di Rocco Bianchi

In un’epoca di fake oltre alle notizie non potevano mancare le immagini, pure loro ormai spesso taroccate. Non quelle abbellite grazie a programmi come Photoshop o social network stile Instagram; stiamo parlando proprio di immagini e video rigorosamente falsi, costruiti con intenti spesso non proprio cristallini. Vi è capitato di vedere video di attori, politici, personaggi famosi che fanno o dicono cose incredibili? Avete visto Biden dire parolacce o Trump recitare Shakespeare? Ecco, siete caduti nella trappola del deepfake, una tecnologia che utilizza una forma di intelligenza artificiale chiamata deep learning per appunto creare foto e video falsi.

È un fenomeno relativamente recente, così recente che la parola è stata coniata solo nel 2017 e che prima di sapere cosa fosse ne siamo già stati probabilmente vittime. È comunque dal 2019 che le clip manipolate hanno cominciato a girare all’impazzata sui social, complice l’arrivo sul mercato di applicazioni sempre più sofisticate e performanti che permettono di crearle. Il lockdown dovuto alla pandemia, con l’obbligo del distanziamento sociale e la spinta che ha dato alla digitalizzazione della nostra vita, ha fatto il resto e decretato il boom. Il procedimento in sé è semplice: si combinano e si sovrapprongono video e immagini esistenti per creare qualcosa di totalmente nuovo. Il «trucco», che come in ogni gioco di prestigio c’è ma non si vede, sta nel fatto che per il nostro cervello quello che vediamo è reale e vero. Almeno in apparenza, naturalmente.

Il deepfake tuttavia non è e non nasce come un gioco di prestigio. Nasce infatti dall’industria pornografica, che ad un certo punto si è «divertita» a creare video e foto spinti di numerose celebrità. Anche se, per paura di cause milionarie, i più importanti siti web dedicati al genere hanno ormai eliminato praticamente tutto quello che li riguarda, ancora oggi è possibile imbattersi in video porno con protagonisti attori o attrici più o meno famosi. Non spezzoni hard di film che hanno effettivamente girato, non solo scene porno in cui ai volti dei veri «attori» sono stati sovrapposti quelli della celebrità di turno, ma veri e propri falsi creati dall’intelligenza artificiale, dapprima distinguibili dai video veri in modo relativamente facile, poi sempre più sofisticati e dunque meno riconoscibili. La faccenda emerse nell’autunno 2017, quando un utente anonimo con lo pseudonimo di «deepfakes» postò diversi video porno su Internet. Diverse le celebrità prese di mira, in maggioranza donne anche se non mancavano gli uomini. Scarlett Johansson, una delle attrici in questo senso più gettonate, parlò del problema pubblicamente a fine 2018 sul «Washington Post»: a suo avviso le celebrità come lei sono protette dalla propria fama; diverso il discorso per le persone normali, vittime spesso di revenge porn, termine che indica appunto la diffusione di materiale a sfondo sessuale con l’intento di rovinare la reputazione della vittima di turno. Di solito come detto donna, non di rado minorenne (recentemente le autorità di controllo italiane sono intervenute su un app che spoglia le ragazze). L’intento è, appunto, uno e uno solo: la vendetta. Pochi al momento i paesi dove questo fenomeno viene punito e represso con una legge specifica. Tra questi non figura la Svizzera, che si limita a perseguirlo su denuncia di parte come «reato contro l’onore», ossia diffamazione e calunnia.

Tuttavia, se la maggior parte di questi video sono pornografici, c’è anche una grossa parte dedicata ai politici, con loro dichiarazioni rigorosamente false (esistono perciò anche deepfake solamente audio). E il fenomeno è in rapida crescita. Spesso l’intento è satirico (chi non ha ricevuto in questi ultimi mesi video o foto di Donald Trump ripreso negli atteggiamenti più strani?). Clamoroso ad esempio quanto fatto lo scorso 25 dicembre dalla rete televisiva britannica Channel 4, che ha trasmesso una parodia rigorosamente deepfake dei tradizionali auguri che Elisabetta II porge ai suoi sudditi. L’intento della rete televisiva era di dare un «forte avvertimento» sulle fake news. Ovviamente, visto che i britannici sono sì famosi per il loro humor ma lo perdono un po’ quando si toccano i reali, non sono mancate critiche e polemiche.

Anche in questo campo comunque il deepfake evolve in fretta: per la gioia dei complottisti di ogni credo e nazione, sembra infatti che pure i governi stiano iniziando ad usarlo. Si vocifera ad esempio di falsi video di organizzazioni terroristiche creati per screditarne i vertici, ma in questo campo la fantasia (dei creatori e dei complottisti) è davvero infinita.

Senza dimenticare le truffe: si ha ad esempio notizia di un responsabile di una società che ha versato diverse decine di migliaia di sterline su un conto bancario dopo essere stato ingannato dalla finta/vera voce del da lui creduto suo amministratore delegato. Non un caso isolato, pare, tanto che gli esperti in cybercriminalità stanno ipotizzando che questa tecnologia possa raggiungere livelli talmente alti da riuscire a creare addirittura false videoconferenze. Anche perché un programmatore ci è già quasi riuscito, intrufolandosi in una chat e facendo parlare in una videochiamata a tre il fondatore della Tesla Elon Musk, dimostrando così che ci si può far passare per chiunque, anche in tempo reale.

In quest’epoca di lockdown e telelavoro in cui sempre più aziende si affidano al video come mezzo di comunicazione tra dirigenti e dipendenti, i danni per le imprese potenzialmente potrebbero diventare enormi. È dunque ipotizzabile che questa tecnologia, in mano ai malfattori e combinata con l’aumento dell’ansia di prestazione economica dei manager dovuta alla crisi del Covid-19, porterà alla nascita di nuove minacce che le autorità faticheranno a fronteggiare. Forse soprattutto per questo i grandi network digitali (social media, motori di ricerca ecc.) stanno formando dei team incaricati di studiare, monitorare e contrastare il fenomeno e studiando e in parte già applicando mezzi per contrastarlo che vadano oltre le segnalazioni degli utenti – si pensa ad esempio di elaborare algoritmi capaci di inviduare i deepfake.

Problema comunque limitato alle imprese e a una cerchia ristretta di persone, spesso per di più di livello sociale e finanziario talmente elevato da portersene anche infischiare? Solo a una lettura superficiale. Dato che questa tecnologia diventa sempre più sofisticata (i video degli anni scorsi sono lontani anni luce dalle possibilità offerte oggi a chiunque possegga uno smartphone) e invasiva, sempre più esperti di varia estrazione (filosofi, sociologi, informatici…) avvertono, infatti, che stiamo scivolando sempre più verso una società in cui le persone dubitano di tutto; grazie al deepfake, persino di quello che vedono con i propri occhi.

Non solo: non si interessano neanche più di scoprire se una cosa è vera o falsa per il solo fatto che può essere manipolata. Si creano dunque una realtà la cui veridicità rimane sempre dubbia. Plausibile certo, ma non vera. Soprattutto sempre adattabile alle loro idee e credenze, che verrebbero così sempre confermate e mai messe in dubbio, se non cambiate. Di conseguenza, almeno in linea teorica, potrebbero esistere tanti fatti alternativi (la citazione non è casuale!) e dunque realtà quante le persone esistenti sulla terra. La Torre di Babele in confronto sembra una bazzecola.