Deepfake: la contraffazione della prossima generazione

Diffondere fatti falsi, distorcere la realtà con “alternative facts”: su Internet i fake non sono una novità. Non importa che si tratti di immagini manipolate, notizie false o informazioni inventate: il World Wide Web ne è pieno, rendendo sempre più difficile distinguere tra realtà e finzione. Ora la contraffazione ha raggiunto un nuovo livello: i deepfake.

I deepfake sono emersi per la prima volta nel dicembre 2017 su Reddit. Un utente è riuscito a dare il volto di celebrità ai personaggi dei film porno, e purtroppo in modo terribilmente credibile. Per un breve periodo la creazione dei presunti porno con celebrità come protagoniste ha vissuto un vero e proprio boom. Nel frattempo video contraffatti di questo genere sono stati proibiti sia su Reddit che su altre piattaforme come Twitter o Discord, anche se questo divieto difficilmente riesce a limitare la diffusione dei deepfake. Ma che cosa rende i deepfake così particolari?

Deepfakes: cosa sono?

Normalmente i cosiddetti “fake” vengono creati con molto lavoro e conoscenze e ciò non ha per forza finalità dannose: Anche nei film di Hollywood non è raro lo scambio di volti. Ciò di solito viene fatto da esperti nel campo della tecnologia di editing e CGI. Al contrario, i deepfake sono creati dal computer stesso, senza la necessità di un intervento specifico da parte dell’uomo.

Si chiamano “deepfake” perché si basano sul cosiddetto deep learning, una forma di Machine Learning. Per lo scambio di volti o oggetti nei deepfake sono necessari degli algoritmi. Gli algoritmi alla base del deep learning necessitano di una grossa quantità di dati per funzionare bene: maggiore è il numero di immagini e video su una persona, migliore sarà il risultato.

Consiglio

I video si adattano particolarmente bene come materiale di lavoro. Con i video, infatti, si forniscono migliaia di singoli frame ottenuti da diverse prospettive. I video mostrano i volti anche in posizioni più naturali rispetto a quanto facciano le foto, che di solito mostrano semplicemente un volto sorridente ritratto frontalmente.

Già 300 immagini con il volto della persona scelta (meglio se ritratto da tutte le possibili prospettive) dovrebbero essere sufficienti per ottenere un risultato accettabile. Nel codice dei deepfake si nasconde una rete neurale, un cosiddetto autoencoder: la rete viene così esercitata a comprimere dati che verranno decompressi successivamente. Durante la compressione l’autoencoder cerca di raggiungere un risultato che sia il più vicino possibile all’originale, imparando a distinguere durante la fase di compressione tra i dati importanti e quelli secondari.

Se all’algoritmo vengono fornite immagini di cani, la rete di neuroni artificiali impara a focalizzarsi soltanto sul cane ignorando lo sfondo (noise). A partire da questi dati l’autoencoder è in grado infine di creare un cane. Lo scambio dei volti nei deepfake funziona allo stesso modo: la rete neurale assimila l’aspetto di una persona ed è in grado di rigenerarla autonomamente, anche in movimento.

Per scambiare i volti in modo efficiente occorre poterne riconoscere due: quello che emerge dal materiale originale e quello che si vuole utilizzare per lo scambio. Per questo si impostano un’entrata (l’encoder) e due uscite (i decoder). L’encoder analizza il materiale, mentre i due decoder generano ognuno un output diverso: volto A e volto B.

L’effetto finale avviene per il fatto che l’algoritmo non inserisce il volto A nel video, ma il volto B, che non gli appartiene. Arriviamo così al cuore della differenza rispetto ai normali fake: mentre in questi ci si limita a sostituire il volto originarle con uno ritagliato da un’altra immagine, e ritoccato se necessario, nel caso dei deepfake si crea materiale del tutto nuovo. Con i deepfake, invece, non ci si limita a copiare un’immagine da un’altra parte, ma si crea del nuovo materiale. Soltanto così anche le mimiche possono ricalcare il volto originale.

Ciò chiarisce anche gli errori che accadono con i deepfake: le reti neurali mostrano i propri limiti specialmente se si tratta di movimenti non ordinari. Se non è disponibile sufficiente materiale dalla prospettiva richiesta, il frame risulta sfuocato. L’algoritmo cerca di generare un’immagine a partire dal poco materiale sorgente, ma fallisce non potendo ricostruire i dettagli.

La storia dei deepfake: da Reddit al mondo intero

I deepfake nascono nel contesto di Reddit. Il sito è conosciuto perché nelle sottocategorie (i cosiddetti subreddit) viene dato spazio anche a temi minori. Nel dicembre 2017 un redditor (nome con cui si indicano gli utenti di reddit) con lo pseudonimo “deepfakes” ha creato un subreddit in cui ha pubblicato video pornografici aventi come protagoniste alcune celebrità. Per fare questo l’utente anonimo ha costruito l’algoritmo descritto, che a propria volta si poggia su altre tecnologie, come la biblioteca open source Keras e Google TensorFlow.

In pochissimo tempo questo subreddit contava 15.000 seguaci. In seguito Reddit ha interrotto l’attività del forum e, come altre aziende (tra cui la piattaforma di video pornografici pornhub), ha proibito la diffusione di porno fake. Tuttavia ciò non riesce a fermare la marcia dei deepfake: il codice sviluppato per i deepfake è open source ed è perciò disponibile a chiunque. Su GitHub si possono trovare diverse repository nelle quali gli sviluppatori lavorano all’algoritmo. Così è anche nata l’app per i deepfake, chiamata FakeApp.

Con questo programma, chiunque possieda un minimo di conoscenze informatiche può attuare questi face swap. Per creare deepfake con l’app è necessario solamente una scheda grafica Nvidia ad alte prestazioni. Per i calcoli il programma utilizza il processore grafico (GPU). Oltre che con la FakeApp, i deepfake possono anche essere creati con la CPU di un computer, anche se ciò richiede solitamente tempi più lunghi.

Oltre alla pornografia, la comunità di Internet ha trovato altre applicazioni per il face swap basato sul machine learning: particolarmente amata è ad esempio la possibilità di portare attori in film nei quali non hanno mai recitato. Proprio in questo modo è avvenuta la sostituzione, in un breve clip tratto da “Il Signore degli Anelli”, di tutti gli attori con Nicholas Cage. E con la stessa tecnica è stato sostituito il volto di Sharon Stone con quello di Steve Buscemi nella famosissima scena di Basic Instinct.

Per visualizzare questo video, sono necessari i cookie di terze parti. Puoi accedere e modificare le impostazioni dei cookie qui.

Effetti sulla società

In questi casi si tratta di goliardate innocue. Tuttavia la possibilità di manipolare così facilmente i video pone alla società diverse sfide. La prima riguarda la legalità: le celebri donne che ora appaiono in video pornografici non hanno mai dato il proprio consenso. Oltre al fatto che ciò è molto discutibile da un punto di vista morale, questi deepfake vanno a toccare sensibilmente i diritti della personalità e i video possono tra l’altro essere considerati diffamatori.

Fatto

Al momento esistono soprattutto deepfake con volti di celebrità. Ciò avviene principalmente perché su questi personaggi è disponibile una grande quantità di materiale visivo facilmente reperibile sul World Wide Web. Tuttavia non bisogna dimenticare che anche le persone qualunque pubblicano sempre più foto di se stessi su Internet rischiando perciò di diventare vittima dei deepfake.

Al di là dei danni individuali, i deepfake possono anche portare a cambiamenti nella società. Negli ultimi anni era già emerso il problema delle cosiddette fake news. Diventa sempre più difficile distinguere tra fatti realmente accaduti e false illazioni. Fino ad ora le prove video erano un indizio sicuro per la correttezza di un’affermazione, ma con i deepfake ciò non è più vero. Senza troppo sforzo e senza enormi quantità di materiale si possono realizzare delle vere e proprie manipolazioni in grado di ingannare, ovviamente non soltanto per fini di intrattenimento.

I falsi sono e sono sempre stati importanti mezzi di propaganda. Con i deepfake è possibile influenzare l’opinione pubblica in modo consistente. Mentre un video nel quale il viso di Angela Merkel è sostituito da quello di Donald Trump non è altro che una pagliacciata senza importanza, il fatto di poter inserire i politici in contesti dove non sono mai stati è ben più pericoloso. Poiché con il machine learning si può anche imitare la voce di una persona in modo credibile, i deepfake in futuro saranno sempre più realistici e credibili. È normale pensare che tali contraffazioni influenzeranno inevitabilmente le campagne elettorali e le relazioni internazionali.

Per la nostra società ciò significa che dovremmo dare ai media, soprattutto ai media su Internet, minore credibilità. Già ora molte persone esprimono un sano dubbio quando si tratta di presunte novità. Tuttavia in troppi continuano a credere ad affermazioni che vengono diffuse nei social media ma prive di alcuna base fattuale. In futuro sarà sempre più difficile poter credere ai propri occhi.

In ogni caso gli sviluppi riguardanti i deepfake non sono soltanto distruttivi o puerili. Il deep learning può rivoluzionare la creazione degli effetti visivi. Attualmente è ancora relativamente complicato montare i volti di attori sui corpi di altre persone. Ad esempio nel film “Rogue One” è stato possibile creare con effetti visivi una giovane principessa Leia, anche se l’attrice Carrie Fisher all’epoca del film aveva già 60 anni. Un utente Internet grazie all’app Deepfake ha ottenuto un simile risultato in mezz’ora e con un PC comune, secondo le sue affermazioni. I deepfake hanno il potere di rendere gli effetti visivi nei media di intrattenimento più veloci ed economici.

Per visualizzare questo video, sono necessari i cookie di terze parti. Puoi accedere e modificare le impostazioni dei cookie qui.

Si discute anche del fatto che i deepfake e la facilità con la quale si possono creare contraffazioni potrebbe risultare in una maggiore scelta per gli spettatori: in futuro magari si avrà la possibilità di scegliere quale star debba ricoprire il ruolo di protagonista semplicemente con un clic prima dell’inizio del film. Ciò potrebbe accadere anche per l’ambito pubblicitario. Non è difficile immaginare che a breve le star non dovranno più essere davanti alle telecamere per pubblicizzare capi firmati o bevande, ma potrebbero limitarsi a vendere una licenza per il proprio volto. Inoltre gli utenti avrebbero la possibilità di vedere in un negozio online la maglietta agognata indossata dalla star preferita.

In sintesi

Il machine learning offre sconfinate possibilità per il futuro della nostra società. Già adesso Google lavora grazie al deep learning e alle reti neurali artificiali alla categorizzazione di immagini e allo sviluppo di vetture autoguidate. I deepfake mostrano ora uno dei possibili lati oscuri della tecnologia, perché naturalmente gli sviluppi possono essere utilizzati anche per fini distruttivi. Sta alla società trovare soluzioni per tali problemi e utilizzare al meglio le possibilità del machine learning e dei deepfake.

Per offrirti una migliore esperienza di navigazione online questo sito web usa dei cookie, propri e di terze parti. Continuando a navigare sul sito acconsenti all’utilizzo dei cookie. Scopri di più sull’uso dei cookie e sulla possibilità di modificarne le impostazioni o negare il consenso.