Le fake news? Potrebbero presto raggiungere livelli olimpici, sempre più sofisticati, con il deep fake, ovvero la sostituzione dei volti in un video esistente grazie a software estremamente avanzati, guidati da intelligenza artificiale. È una tecnica già sperimentata con clamore nel mondo del cinema hard, dove ha mietuto vittime tra le attrici di Hollywood il cui viso è stato sovrapposto a quello di pornostar impegnate in scene da Oscar del Porno. Che cosa potrebbe fare questa tecnica applicata - per dirne una - al dibattito politico, per generare video propagandistici, incertezza, timori, falsità?
Che cos'è il deep fake. Qualche mese fa il popolare sito Mashable ha definito il deep fake (o anche deepfake, senza spazi) "l'ultima crisi morale di internet", offrendo una definizione tecnologica puntuale del fenomeno: "Un nuovo tipo di video con face-swap (scambi di viso) realistici". In breve, si legge che si tratta di elaborazioni basate su di un software che cerca un "terreno comune" tra due volti per incollare poi l'uno sull'altro, in modo dinamico. Non è un fotomontaggio, ma proprio un video, e se le immagini di base sono chiare e di buona qualità la metamorfosi artificiale rasenta la perfezione. La tecnologia, relativamente facile da usare, alimenta diverse community dove esperti o aspiranti tali si confrontano, scambiano esperienze e producono falsi (alcune di queste community sono ormai bandite da diverse piattaforme pubbliche, come Reddit).
Nicholas Fake. Uno dei video deep fake più famosi mostra l'attore Nicholas Cage in ruoli che non ha mai interpretato, e in molti casi è difficile notare la sovrapposizione di immagini - se non si è al corrente della questione. La qualità dei risultati - almeno per quanto riguarda FakeApp, il più noto software di deep fake - è merito di un software di intelligenza artificiale per allineare un'immagine sull'altra e fonderle: il computer, in pratica, passa in rassegna centinaia di immagini tratte da riprese video, identifica i volti, analizza come sono illuminati, quali espressioni adottano e così via. Quando ha "capito" tutto ciò che deve capire sulle facce con le quali sta lavorando, utilizza questa conoscenza per cucirle abilmente l'una sull'altra, sincronizzando movimenti, espressioni, labiale.
La politica. In tempi di bufale, post verità e manipolazione dell'informazione attraverso i social, le nuove possibilità offerte da questa tecnologia generano una certa apprensione negli ambienti della politica. Uno dei timori è, naturalmente, che gli esperti di "propaganda" usino la tecnologia deep fake per generare video compromettenti - o, al contrario, di assoluzione - per varie nefandezze, oppure per veicolare messaggi che la vittima di turno non condividerebbe.
Qualche tempo fa il sito BuzzFeed ha condotto un "esperimento" mostrando in video un discorso mai fatto di Barack Obama. A maggio, un partito belga ha prodotto un falso video di Donald Trump che diceva cose inverosimili sulla politica climatica del Belgio. «In entrambi i casi - scrive un analista sull'Economist - il video era leggermente spento e la voce era imitata. Ma la tecnologia sta rapidamente migliorando, e ci sono ricercatori nel campo dell'intelligenza artificiale che scommettono sul fatto che un video finto possa spuntare fuori durante le elezioni di medio termine in America, alla fine di quest'anno.»
A dare credibilità a questa visione dell'immediato futuro è proprio il fatto che il deep fake usa algoritmi ad apprendimento automatico combinati con software di mappatura facciale, per la creazione "a basso costo" (in termini di tempo di elaborazione e di dotazioni e competenze tecnologiche) di video che modificano l'identità. In pratica, ed entro certi limiti, non bisogna essere degli esperti per produrre un falso credibile: ci pensa il software.
In un recente rapporto il Belfer Center (Harvard Kennedy School) ha evidenziato le implicazioni che questi falsi - e in generale l'uso senza regole dell'intelligenza artificiale - potrebbero avere sulla sicurezza nazionale americana anche manipolando l'opinione pubblica a colpi di video falsificati ad arte. «La creazione avanzata di supporti audio e video - si legge nel rapporto - è in rapido miglioramento in quanto a qualità e riduzione dei costi: in futuro, i falsi generati dall'intelligenza artificiale metteranno alla prova la fiducia in molte istituzioni».
Come ci si difende? Negli Usa, dove l'eco del caso Cambridge Analytica ancora brucia, il dibattito è aperto: Hany Farid, docente al Darthmouth College e pioniere del PhotoDNA (una tecnologia usata per bloccare la pedo-pornografia) avverte che «siamo decenni lontano dall'avere una "tecnologia forense" capace di separare senza ambiguità il vero dal falso». Se la scienza è ancora impotente, c'è chi auspica un intervento legislativo per l'inasprimento delle leggi sulla diffamazione: tuttavia, applicarla alle piattaforme social o ad attori che agiscono al di fuori dei confini geografici interessati non sembra cosa facile.
Reale, irreale. Mashable ha una posizione netta: «Come con molte tecnologie emergenti, è possibile che molte delle cose che ci aspettano non siano ancora evidenti. Quando Facebook si affacciò per la prima volta nei campus universitari, pochi avrebbero scommesso sulla sua trasformazione in un "golia multimediale" potenzialmente capace di destabilizzare la democrazia americana. Come le fake news che hanno colpito molti su Facebook, il deepfake incarna dunque una nuova possibilità di violare la realtà».
Ma se ogni clip video può essere un falso, perché credere che qualcosa sia reale?