Il video del “falso Renzi” sorprende lui stesso. Cosa sono i deepfake e perché possono essere un problema

Il deepfake si basa su una tecnologia che sta facendo dei passi da gigante, con risultati che già ora sono portentosi, e per certi versi persino preoccupanti. I video di questo tipo tendono a suscitare sempre maggior interesse per quanto siano in grado di riprodurre in maniera quasi perfetta, qualsiasi volto e qualsiasi timbro vocale.

L’ultimo esempio è quello del video, andato in onda nella puntata del Tg satirico Striscia la Notizia, che riprendeva un finto fuorionda di Matteo Renzi. Un video in cui il leader del nuovo partito Italia Viva, dotato di indubbia personalità, si lasciava andare a commenti non esattamente politically correct con estrema libertà.

Di fatto si trattava di un imitatore al viso del quale era stato sovrapposto, attraverso la tecnologia del deepfake appunto, quello di Matteo Renzi. Il risultato è stato eccezionale, perché rendeva realmente difficile cogliere le differenze tra il vero Renzi e la sua versione fake.

In Italia quello del video del falso Matteo Renzi è il primo caso di un deepfake che raggiunge un media generalista come la tv lineare, all’interno poi di una trasmissione che gode di un pubblico vasto e variegato, incentrato poi su un personaggio politico di grandissima notorietà, risalito proprio in queste ultime settimane alla ribalta della cronaca per aver abbandonato il Pd e fondato Italia Viva.

Per realizzare un deepfake si parte da tecnologie di intelligenza artificiale e deep learnirng, attraverso le quali si può modificare il contenuto di un filmato, presentando quindi qualcosa che è stato costruito ad arte, come qualcosa di realmente accaduto. E’ così che si può far dire ad un personaggio famoso qualsiasi, qualcosa che non ha mai detto, e fargli fare qualcosa che non ha mai fatto.

Ed è esattamente ciò che è avvenuto con il video deepfake di Renzi, nel quale il finto leader di Italia Viva si lascia andare ad esternazioni che sono chiaramente fasulle. O forse no? Gli autori di Striscia la Notizia hanno subito fatto sapere che il filmato è stato realizzato utilizzando un sistema basato su intelligenza artificiale e deep learning, ma anche sulla collaborazione di professionisti della matematica, e degli specialisti di produzione e postproduzione audiovisiva.

Gli stessi conduttori del Tg satirico, Ezio Greggio e Michelle Hunziker, subito dopo la messa in onda del falso fuorionda di Renzi, hanno precisato in trasmissione che non si trattava del vero Matteo Renzi. Una precisazione che la verosimiglianza del protagonista del video con il vero Renzi ha reso necessaria.

Il video fake del fuorionda di Renzi e la reazione del politico

La prima reazione di Matteo Renzi è stata di divertimento, oltre che di meraviglia, quindi si è subito complimentato via Instagram con gli autori del filmato. Poi però sono subemtrate alcune legittime preoccupazioni in merito alla “pericolosità” di certi video, così su Facebook ha aggiunto alcune riflessioni.

“Effettivamente ho sottovalutato la portata potenzialmente devastante del deepfake, la nuova raffinata tecnica di fake news. Sono da anni al centro di valanghe di diffamazioni, insulti e notizie false: molte di queste, peraltro, sono oggi al vaglio dei tribunali. Ho scherzato e sorriso sul finto fuorionda e sono certo che la redazione di Striscia saprà utilizzare bene questo strumento. Prendo l’impegno a vivere con leggerezza le critiche ma non sottovalutare mai le conseguenze pericolose dei deepfake.”.

E’ chiaro che ad un occhio attento non sarebbe sfuggito che il fuorionda non poteva che essere un fake. Il Renzi che appare nel video appare con una costituzione diversa, più robusta, ma non è tanto quello che dovrebbe indurre a trarre determinate conclusioni, quanto il suo comportamento, che è palesemente una caricatura.

Ma cosa succede se si aggiunge l’ingannevole contorno del fuorionda, che potrebbe in quache modo fornire una spiegazione allo strano comportamento del finto Renzi? Uno spettatore meno incline alla riflessione, o in generale meno attento e con la tendenza ad accettare per buono quanto proposto dalla Tv, potrebbe cascarci in pieno. E a giudicare da quanto scritto dallo stesso Renzi su Instagram, qualcuno ci è cascato.

“A tutti quelli che mi scrivono: ‘Ma che cosa hai detto a Striscia la Notizia?’ Rispondo con una risata. L’imitazione è perfetta. Ma è un’imitazione!!! Un abbraccio a chi ci è cascato e i miei complimenti a Striscia”.

Matteo Renzi è diventato così il primo politico italiano a finire “vittima” di un video deepfake, ma in questo caso se non altro senza alcuna intenzione malevola. Cosa succederebbe però se i deepfake venissero usati con secondi fini? Si potrebbe usare il volto e quindi la notorietà di persone influenti, politici e non, per veicolare qualsiasi tipo di messaggio risultando perfettamente credibili.

I deepfake nel resto del mondo

In Italia quello del deepfake di Renzi è stato il primo caso, ma fuori dal nostro Paese era già successo ad altri personaggi pubblici, come ad esempio all’ex presidente degli Stati Uniti Barak Obama, e a quello attuale, Donald Trump, ma anche a Vladimir Putin, e qualcosa di simile anche alla presidente del Senato USA Nancy Pelosi.

Alla Pelosi non è andata benissimo perché il fake video incentrato su di lei era stato opportunamente rallentato, e modificato in modo tale che potesse apparire sotto l’effetto di alcol. Il video è risultato decisamente credibile, e la Pelosi tacciata di ubriachezza.

I deepfake possono però essere usati anche in campi completamente diversi, e con finalità ancora più gravi, come strumenti di “revenge porn” ad esempio. In questi casi le persone che si vogliono colpire finiscono per ritrovare i propri volti al posto di quelli dei protagonisti di filmati dai contenuti sessualmente espliciti.

E per dirla tutta, è proprio con la sostituzione dei volti di pornostar protagoniste di video hard con quelli di grandi celebrità di Hollywood che nascono i deepefake. Il nome stesso di questo tipo di filmati ha preso il nome dal nick di un utente Reddit che nel dicembre del 2017 ha sfruttato la tecnologia deeplearning per sovrapporre ai volti delle pornostar quelli di alcune celebrità. Il suo nick era appunto “deepfake”.

Si sono così diffusi filmati dai contenuti sessualmente espliciti nei quali si vedevano coinvolte cantanti famose, come Taylor Swift o Katy Perry, o star di Hollywood come Emma Watson, Gal Gadot, Scarlett Johansson e Daisy Ridley. Il passo successivo nella stessa direzione è stato compiuto da un altro utente Reddit, deepfaceapp, che ha creato un programma chiamato appunto FaceApp in grado di produrre video falsi in modo relativamente facile e più o meno alla portata di tutti.

La gravità della questione delll’applicazione del deepfake al revenge porn e al mondo delle celebrità del cinema e della musica è stata riconosciuta anche da uno dei più famosi siti web dedicati ai contenuti per adulti: Pornhub. La piattaforma hard ha infatti assicurato il massimo impegno nel bandire video fasulli o comunque non consensuali.

Il deepfake, una tecnologia che può essere usata a fin di bene

Non è detto che la tecnologia alla base del deepfake si possa usare solo ai danni di qualcuno. In alcuni casi infatti è stata usata per realizzare qualcosa di oggettivamente apprezzabile dalla collettività, e di carattere indubbiamente innocente.

Un caso è quello legato alla serie di film di Star Wars. Sul canale youtube “derpfakes” il volto dell’attore Alden Ehrenreich, che ha interpretato Han Solo nel film: “A Star Wars Story”, è stato sostituito con quello di Harrison Ford del 1977, che aveva interpretato lo stesso personaggio ormai 40 anni fa.

In un’altra occasione, la tecnologia del deepfake ha permesso di dare all’attore Paul Walker, morto in un incidente d’auto, la possibilità di apparire nel settimo film di Fast and Furious. La stessa tecnologia ha permesso di ringiovanire notevolmente il volto di Micheal Douglas che ha interpretato il dottor Pim nei film Marvel di Ant-Man.

Una tecnologia che viene usata anche in ambito medico, poiché la medicina trae vantaggio dai modelli generativi che danno vita ai deepfake applicandoli alla diagnostica per immagini. Si possono in questo modo creare tutorial per futuri medici, o produrre contesti fittizi nei quali applicare, ad esempio, ricostruzioni prova per interventi di chirurgia plastica.

Come funziona la tecnologia alla base dei deepfake

Il padre di questa nuova strabiliante tecnologia è Ian Goodfellow, in quanto è il primo ricercatore ad essersi occupato delle GAN, acronimo che sta per Generative Adversarial Network, che in italiano possiamo tradurre in reti generative avversarie.

Si tratta di un concetto molto interessante, sviluppato da Fellow a partire dal 2014. Dopo essersi dedicato alle tecnologie deep learning di Google con ottimi risultati, Fellow è stato assunto dalla Apple affinché contribuisse allo sviluppo delle sue intelligenze artificiali come FaceID e Siri, e a quello delle soluzioni per la guida autonoma.

Attraverso le GAN è stato possibile per i ricercatori creare delle foto realistiche dei volti di alcune persone, generandole interamente al computer. L’intuizione di Fellow era stata infatti quella di contrapporre un “avversario” al framework lineare dei precedenti sistemi generativi.

Il compito del modello discriminatorio, il cosiddetto avversario, è quello di imparare a determinare se un campione proviene dalla distrubuzione del modello generativo, oppure da quella dei dati. Il modello generativo deve essere in grado di aggirare l’avversario, proprio come un falsario deve riuscire ad aggirare i sistemi di riconoscimento del denaro falso.

Il ruolo del modello discriminatorio quindi è da ritenersi simile a quello di una equipe della polizia che ha il compito di riconoscere appunto il denaro falso. Ed è proprio la competizione in questo gioco che determina una corsa verso il perfezionamento di entrambi i modelli, fino a che le contraffazioni diventano impossibili da distinguere dai dati autentici.

Oggi si usano le GAN per applicare il filtro Face Aging, che permette di invecchiare i volti, per generare nuovo punti di simulazione dei lineamentim o per alterare attributi del viso a cominciare dal colore della pelle. Alle GAN si affiancano poi la Deep Feature Interpolation e le Fader Networks, in grado di ricostruire dettaglio come i peli del viso e di intrepretare alcune espressioni facciali, come il sorriso o il broncio.

Uno degli effetti collaterali più evidenti che si hanno su un’immagine che ha subito tutte queste alterazioni è generalmente un calo della risoluzione dell’immagine rispetto a quella di partenza. Si tratta quindi di un primo campanello d’allarme per accorgersi che si tratta di un deepfake.

Attraverso uno studio condotto nel 2017 e revisionato nel 2018, alcuni ricercatori della computazione neurale hanno proposto dei sistemi per perfezionare all’unisono modelli generativi e discriminatori, partendo da una bassa risoluzione delle immagini e aggiungendo strati successivi a risoluzioni più alte man mano che le abilità di apprendimento crescono.

I metodi che si usano per la contraffazione video

Per riuscire a contraffare i video oggi si usano due metodi basati sulla computer grafica: FaceSwap e Deepfakes, e due metodi che invece coinvolgono il deep learning: Face2Face e NeuralTextures.

FaceSwap parte da alcuni punti del viso come punti di riferimento e da questi estrae una “regione facciale” che viene poi riprodotta sull’immagine di destinazione miscelando texture sorgenti e colore, cercando di ridurre al minimo la differenza tra le forme di partenza e quelle di arrivo.

Deepfakes è il metodo che ha dato di fatto il nome al fenomeno nel suo complesso. Si base sulla computer grafica proprio come Face Swap, acquisendo dati dall’immagine originale servendosi di un codificatore e decodificatore a cui poi si aggiunge un’interpolazione di tipo Poisson. In questo modo si riesce a far sì che la destinazione accolga nel modo più armonioso possibile le nuove immagini.

Face2Face è in grado di trasferire le espressioni di un video sorgente in un video di destinazione, ma mantenendo l’identità della persona bersagliata. In altre parole si prendono le espressioni da un video esterno e le si appiccicano letteralmente sul viso di qualcuno in un altro video.

Le Neural Textures invece utilizzano i dati video originali per imparare a replicare la texture neurale ottenuta su un’identità di destinazione. Queste textures sono memorizzate come mappe su una matrice 3D, e sono in grado di ottenere dei risultati non solo attingendo da modelli 3D ma anche da immagini fotometriche, proprio come quelle dei video.

I deepfake accessibili anche al grande pubblico

Nello sviluppo di tecnologie sfruttate dai deepfake sono stati fatti enormi passi in avanti in pochissimo tempo. Si pensi a quando nel 2017 è venuto tutto alla luce attraverso Reddit, e a che punto siamo appena due anni dopo.

Secondo Hao Li, professore associato di computer science alla University of South Carolina, padre della startup Pinscreen, tra sei mesi o un anno al massimo ci troveremo di fronte a video deepfake che sarà totalmente impossibile riconoscere. Gli stessi dispositivi mobili in commercio oggi hanno accesso ad una parte di quella tecnologia, con app scaricabili dagli store ufficiali.

In Cina esiste un’app che si chiama Zao, attraverso la quale l’utente può sostituire il proprio volto con quello di attori famosi, ed in questo modo sentirsi protagonista delle scene più belle nella storia del cinema. Un’altra app che si basa su tecnologie simili è proprio quella ideata da Hao Li, Pinscreen, che permette di dar vita ad avatar che si basano sui movimenti degli utenti, in modo simile alle Memoji di Apple.

E anche se può apparire di interesse secondario, anche la componente audio può essere modificata in maniera analoga a quella con cui viene modificata la componente video. Le tecnologie speech-to-speech sono infatti in grado di contraffare una voce rendendola completamente indistinguibile da quella originale, ed anche in questo caso avviene tutto tramite l’utilizzo delle reti neurali. Google stessa, anche se a scopi diversi, sta facendo qualcosa di simile con Translatotron.

Come distinguere un deepfake

Distinguere un deepfake non è forse così difficile oggi, anche se l’episodio del fuorionda di Matteo Renzi ha dimostrato che non è nemmeno così facile, ma tra un anno al massimo, almeno secondo Hao Li, sarà quasi impossibile, almeno per l’occhio umano.

La piega che ha preso l’utilizzo di questa tecnologia, e la rapidità con cui viene perfezionata, ci fanno pensare ad un futuro per certi versi quasi angosciante, nel quale sarà difficile capire se un video è autentico oppure no. Ecco perché un gruppo di ricercatori dell’Università di tecnica di Monaco (TUM) ha deciso di creare uno strumento che ha proprio la funzione di distinguere i video fake da quello non alterati.

Si chiama FaceForensics++, ed è un database di immagini modificate generato dall’analisi di un migliaio di video estratti da youtube. L’obiettivo è quello di trarne uno strumento capace di riconoscere in anticipo i video manipolati, e per raggiungere il risultato richiesto si parte proprio dall’applicazione degli stessi metodi usati per la creazione dei deepfake.

Le tecnologie utilizzate quindi sono sempre le stesse quattro citate prima: FaceSwap, Face2Face, Deepfakes e NeuralTextures. Al gruppo di ricerca della TUM si sono uniti anche ricercatori dell’Università Federico II di Napoli e sembra che la stessa Google stia dando il suo contributo.

Anche la Mountain View sta collaborando per accelerare la ricerca di FaceForensics++, mettendo a disposizione 3mila video manipolati. Mentre Google, invece di cercarli, li ha direttamente prodotti, offrendo così gratuitamente al solo scopo di ricerca un pacchetto contenente sia i video reali, girati appositamente per essere poi contraffatti, che quelli modificati naturalmente.

Se è vero quindi che nell’arco di un anno non saremo in grado di distinguere un video contraffatto da uno autentico, c’è da sperare che anche la ricerca nel senso opposto progredisca di pari passo, fornendoci uno strumento valido, affidabile e accessibile, in grado di fare quello che non saremo in grado di fare da soli.

La soluzione ideale sarebbe che si arrivasse ad un algoritmo in grado di riconoscere un deepfake già dal momento in cui viene caricato nel web, indipendentemente da quale sia il sito su cui viene caricato, per etichettarlo come tale in modo che l’utente possa subito sapere cosa sta guardando.

Questo contenuto non deve essere considerato un consiglio di investimento. Non offriamo alcun tipo di consulenza finanziaria. L’articolo ha uno scopo soltanto informativo e alcuni contenuti sono Comunicati Stampa scritti direttamente dai nostri Clienti.
I lettori sono tenuti pertanto a effettuare le proprie ricerche per verificare l’aggiornamento dei dati. Questo sito NON è responsabile, direttamente o indirettamente, per qualsivoglia danno o perdita, reale o presunta, causata dall'utilizzo di qualunque contenuto o servizio menzionato sul sito https://www.borsainside.com.

Rimani aggiornato con le ultime novità su investimenti e trading!

Telegram
Regolamentazione Trading
Non perdere le nostre notizie! Vuoi essere avvisat* quando pubblichiamo un nuovo articolo? No Sì, certo