Interviste

Perché il deepfake può essere una minaccia anche per la democrazia

Nato come “gioco”, il software che manipola i video rischia di creare problemi in vista delle Presidenziali Usa. Per questo si sta correndo ai ripari, ma la strada è in salita.

Falsi video creati con l’intelligenza artificiale, sempre più difficili da riconoscere, che minacciano l’identità, la reputazione delle persone e la stessa democrazia. L’ultima vittima è stato Mark Zuckerberg, protagonista di un falso video in cui dichiara di aver venduto i dati di miliardi di utenti perché «chi ha i dati ha il potere».

Il fenomeno dei deepfake è iniziato almeno un paio d’anni fa, un po’ per provocazione. Il termine è stato utilizzato per la prima volta nel 2017 da un utente del social Reddit che aveva postato, utilizzando il nickname “deepfakes”, dei finti porno con famosi attori di Hollywood, sostituendo i loro volti a quelli degli attori hard. Da allora “deepfake” identifica tutti i video manipolati attraverso tecniche di deep learning che modificano la struttura dei contenuti. Addirittura su Reddit era stato aperto un canale per ospitare i video fake creati dagli utenti, poi chiuso a febbraio 2018 in seguito a numerose proteste.

In questi anni, grazie agli sviluppi dell’intelligenza artificiale, i deepfake video sono diventati sempre più sofisticati grazie a tecniche come le GANsgenerative adversarial network, in grado di usare dati (come le immagini di volti umani) per produrre cose nuove (come immagini estremamente realistiche di surrogati di volti umani). Per realizzare i deepfake video l’algoritmo falsificatore viene addestrato con delle sequenze di video reali del soggetto ad apprendere le peculiarità dei suoi movimenti e ad associare il labiale e le parole (pronunciate in altre circostanze magari in momenti diversi) in modo che siano perfettamente in sincrono.

A fronte di un così elevato livello di sofisticazione, produrre deepfake è diventato possibile anche a partire da pochissimi dati di partenza, tanto che gli esperti hanno iniziato a usare il termine cheap fake. Impressionanti in questo senso sono i video realizzati da Samsung che in un laboratorio russo è riuscita ad animare la Gioconda, producendo delle gif animate in cui l’opera di Leonardo si muove e parla a partire semplicemente dalla sua immagine statica.

Negli Usa i deepfake video sono considerati una reale minaccia per le prossime elezioni nel 2020 e alcuni ricercatori – guidati dal professor Hany Farid esperto di computer science e digital forensics di Berkeley – stanno lavorando a un software che riconosca i video fake di leader politici come Donald TrumpTheresa MayJustin Trudeau, così come dei candidati alla presidenza Usa. Farid ha dichiarato che la diffusione di questo genere di contenuti metterebbe realmente a rischio la democrazia e la sicurezza dei cittadini e che, al momento, non siamo assolutamente pronti per affrontarlo.

La sua non sembra un’esagerazione se consideriamo i precedenti usi politici dei deepfake per manipolare l’opinione pubblica. Un caso che ha fatto scalpore, in India, è stato quello della giornalista investigativa Rana Ayyub che nell’aprile 2018 aveva denunciato il partito nazionalista indiano Bjp per aver marciato a sostegno delle persone accusate di aver stuprato una bambina di 8 anni del Kashmir. La sua presa di posizione le è costata cara. Oltre alla pubblicazione di tweet fasulli («odio il popolo indiano», «amo il Pakistan») per screditarla agli occhi dell’opinione pubblica è stato fatto circolare in Rete dalla pagina del Bjp un suo video porno fake che in poche ore ha raggiunto 40 mila persone, senza che lei potesse fare nulla per fermarlo (pur essendo stata informata da una fonte interna al partito). È chiaro come un’azione del genere possa manipolare l’opinione pubblica e distruggere la credibilità di un giornalista, specialmente donna. Allo stesso modo è comprensibile la preoccupazione degli Stati Uniti rispetto al rischio di simili manipolazioni nella prossima campagna elettorale presidenziale, tanto che per la prima volta al Congresso americano è stata presentata una proposta di legge per combattere i deepfake.

Ma come funziona la tecnologia che permette di smascherare un fake? Praticamente allo stesso modo di quella che li crea: attraverso il machine learning. Per distinguere un individuo dalla sua versione artefatta vengono utilizzati dei sistemi biometrici che registrano ore e ore di video del personaggio, in cerca di relazioni tra i movimenti della testa, gli schemi del discorso e le espressioni facciali in modo da addestrare la macchina a riconoscerli. Per esempio, quando Barack Obama – caduto nel deepfake prima di Zuckerberg – dà cattive notizie, aggrotta le sopracciglia e tende ad abbassare la testa mentre la solleva in caso contrario. Queste correlazioni sono usate per costruire un modello da usare per determinare se l’immagine di Obama contenuta in un video abbia gli schemi del parlato, i movimenti della testa e le espressioni facciali che corrispondono all’originale. Se in questi schemi si rivelano delle anomalie molto probabilmente si è in presenza di un falso.

Si sta costruendo un modello simile sui candidati alle prossime presidenziali americane, tra cui Joe BidenElizabeth Warren e Bernie Sanders testato su alcuni deepfake creati da ricercatori dell’Università della California. Gli esperti hanno creato i falsi mappando i loro volti sugli attori che li imitano nel Saturday Night Live. Il risultato è piuttosto sconvolgente: nel video fake di Trump, il volto del presidente ha le espressioni facciali di Alec Baldwin.

I deepfake sono la nuova frontiera del fake, contenuti artefatti estremamente virali che possono diventare una reale minaccia non solo per la reputazione delle persone coinvolte ma anche per il tessuto economico e la democrazia, se si tratta di politica e istituzioni. Si potrebbe obiettare che essendo falsi possono essere verificati e smentiti. Purtroppo, come abbiamo visto, in Rete la velocità di diffusione è tale che le contromisure sicuramente arrivano tardi e spesso agiscono sulle macerie della precedente credibilità. Il rischio appare piuttosto concreto: immaginiamo cosa accadrebbe se durante la campagna elettorale Usa venissero diffusi video di Trump che dichiara una guerra con armi nucleari. C’è poco da scherzare.

 

 

 

Andrea Barchiesi

Recent Posts

AI e editoria, imparzialità e conflitto

L’intelligenza artificiale stringe rapporti con l'editoria e le testate, assorbendone il punto di vista e perdendo l’imparzialità.

14 ore ago

Reputation Manager è Campione della Crescita 2025

Reputation Manager è tra le 800 aziende italiane che stanno crescendo maggiormente premiate nella graduatoria “Campioni della Crescita” 2025.

3 giorni ago

La reputazione non si vede, ma controlla e governa i destini

Ho parlato di reputazione e del mio nuovo libro "Ingegneria Reputazionale" con Mario Modica in questa intervista per Spot and…

2 settimane ago

La reputazione si costruisce (e si può riparare)

In questa intervista pubblicata su Economy, ho trattato di reputazione e, specificamente, di ingegneria reputazionale.

2 settimane ago

Top Manager Reputation, Orcel primo, segue Pier Silvio Berlusconi

Nella Top Manager Reputation di ottobre 2024, Andrea Orcel è in prima posizione, seguito da Pier Silvio Berlusconi e Claudio…

3 settimane ago

Oggi esce “Ingegneria Reputazionale”

È uscito il mio nuovo libro, "Ingegneria Reputazionale", che tenta di sistematizzare una disciplina che trasforma la reputazione in una…

3 settimane ago