Deepfake, i video manipolati (ma super realistici) che infestano il web

Con la tecnologia dell’intelligenza artificiale si possono creare filmati falsi sempre più difficili da riconoscere. E far dire a chiunque ciò che si vuole davanti alle telecamere

 

Un nuovo spettro si aggira per la Rete: è quello dei cosiddetti video deepfake.

In pratica, si tratta di una tecnica di intelligenza artificiale utilizzata per manipolare le immagini, in modo da sovrapporre un diverso volto su una ripresa che ritrae il corpo di un’altra persona, oppure da modificare il labiale di un discorso così da far pronunciare al protagonista delle parole o delle frasi che non ha mai effettivamente detto.

Non è chiaro con esattezza quando questa tecnologia sia stata inventata. Il termine, però, è stato coniato a fine 2017 da un utente della piattaforma Reddit, che usò proprio lo pseudonimo deepfakes per pubblicare un falso video a luci rosse di Gal Gadot, l’attrice di Wonder Woman.

A quel primo esempio sono seguiti decine di altri filmati taroccati e pubblicati online, che riguardano celebrità di vario genere.

Uno tra i più famosi è quello in cui Mark Zuckerberg si definirebbe “un uomo che ha il controllo totale dei dati rubati a miliardi di persone, dei loro segreti, delle loro vite, del loro futuro”. Ma la stessa sorte è toccata a Kit Harington, il Jon Snow del Trono di Spade, che nel suo finto video si scusa per il finale della sua serie TV, e persino a politici di primo piano come Donald Trump o Barack Obama.

 

Manomettere i video è sempre più facile

 

L’idea di ritoccare le immagini, in alcuni casi a fini di satira, in altri di disinformazione, non è certamente nuova: basti pensare ai ritocchi che già da decenni è possibile eseguire con Photoshop.

La differenza è che i software più recenti permettono di ottenere risultati sempre più sofisticati con un processo sempre più semplice.

Basti pensare a programmi come FakeApp, già oggi scaricabile da qualsiasi store, che permette di sostituire il volto di una persona ripresa in qualsiasi video.

La stessa Samsung ha recentemente svelato un algoritmo capace di creare falsi filmati di qualsiasi persona a partire da una singola foto.

Alla base della tecnologia dei deepfake ci sono due algoritmi di intelligenza artificiale, che generano una rete generativa avversaria: uno è il generatore, l’altro il discriminatore.

In pratica, il primo si occupa di creare i fake, il secondo di scoprirli.

I primi video deepfake erano piuttosto semplici da identificare, ad esempio perché le persone ritratte non sbattevano gli occhi con una frequenza naturale.

Ma con il progressivo miglioramento dei generatori che si è reso necessario per battere i discriminatori, le tecnologie di ultima generazione sono diventate estremamente realistiche. Ad un semplice sguardo non è sempre possibile affermare se un filmato sia o meno un deepfake.

 

Come ci si difende dai deepfake

 

La buona notizia è che, sempre tramite la tecnologia, nella maggior parte dei casi è comunque possibile individuare le manipolazioni, cercando errori che non sono facili da evitare nascosti tra i pixel di alcuni specifici fotogrammi.

Uno degli ultimi algoritmi studiati per rivelare i deepfake, realizzato dall’USC Information Sciences Institute in California, sostiene di raggiungere una precisione del 97%.

Un’altra soluzione tecnologica per evitare le falsificazioni è invece quella dell’hashing, una sorta di firma digitale abbinata ai file video, una breve stringa numerica che viene persa quando il filmato è manomesso.

Eppure nessuna di queste tecniche è in grado di rimuovere completamente il rischio dei deepfake.

Tanto che lo stesso Congresso degli Stati Uniti si è già messo in allarme in vista della campagna elettorale presidenziale del 2020, che potrebbe essere pesantemente condizionata dai falsi video.

Negli ultimi mesi sono state avanzate ben due proposte di legge in tal senso: il Malicious Deep Fake Prohibition Act of 2018 e il Deep Fakes Accountability Act.

Le misure da intraprendere per evitare potenziali conseguenze negative dei contenuti video deepfake sono dunque già in discussione, anche se il loro possibile effetto collaterale è una stretta sulla libertà di pensiero sul web.