Dif­fon­de­re fatti falsi, di­stor­ce­re la realtà con “al­ter­na­ti­ve facts”: su Internet i fake non sono una novità. Non importa che si tratti di immagini ma­ni­po­la­te, notizie false o in­for­ma­zio­ni inventate: il World Wide Web ne è pieno, rendendo sempre più difficile di­stin­gue­re tra realtà e finzione. Ora la con­traf­fa­zio­ne ha raggiunto un nuovo livello: i deepfake.

I deepfake sono emersi per la prima volta nel dicembre 2017 su Reddit. Un utente è riuscito a dare il volto di celebrità ai per­so­nag­gi dei film porno, e purtroppo in modo ter­ri­bil­men­te credibile. Per un breve periodo la creazione dei presunti porno con celebrità come pro­ta­go­ni­ste ha vissuto un vero e proprio boom. Nel frattempo video con­traf­fat­ti di questo genere sono stati proibiti sia su Reddit che su altre piat­ta­for­me come Twitter o Discord, anche se questo divieto dif­fi­cil­men­te riesce a limitare la dif­fu­sio­ne dei deepfake. Ma che cosa rende i deepfake così par­ti­co­la­ri?

Deepfakes: cosa sono?

Nor­mal­men­te i co­sid­det­ti “fake” vengono creati con molto lavoro e co­no­scen­ze e ciò non ha per forza finalità dannose: Anche nei film di Hollywood non è raro lo scambio di volti. Ciò di solito viene fatto da esperti nel campo della tec­no­lo­gia di editing e CGI. Al contrario, i deepfake sono creati dal computer stesso, senza la necessità di un in­ter­ven­to specifico da parte dell’uomo.

Si chiamano “deepfake” perché si basano sul co­sid­det­to deep learning, una forma di Machine Learning. Per lo scambio di volti o oggetti nei deepfake sono necessari degli algoritmi. Gli algoritmi alla base del deep learning ne­ces­si­ta­no di una grossa quantità di dati per fun­zio­na­re bene: maggiore è il numero di immagini e video su una persona, migliore sarà il risultato.

Consiglio

I video si adattano par­ti­co­lar­men­te bene come materiale di lavoro. Con i video, infatti, si for­ni­sco­no migliaia di singoli frame ottenuti da diverse pro­spet­ti­ve. I video mostrano i volti anche in posizioni più naturali rispetto a quanto facciano le foto, che di solito mostrano sem­pli­ce­men­te un volto sor­ri­den­te ritratto fron­tal­men­te.

Già 300 immagini con il volto della persona scelta (meglio se ritratto da tutte le possibili pro­spet­ti­ve) do­vreb­be­ro essere suf­fi­cien­ti per ottenere un risultato ac­cet­ta­bi­le. Nel codice dei deepfake si nasconde una rete neurale, un co­sid­det­to au­toen­co­der: la rete viene così eser­ci­ta­ta a com­pri­me­re dati che verranno de­com­pres­si suc­ces­si­va­men­te. Durante la com­pres­sio­ne l’au­toen­co­der cerca di rag­giun­ge­re un risultato che sia il più vicino possibile all’originale, imparando a di­stin­gue­re durante la fase di com­pres­sio­ne tra i dati im­por­tan­ti e quelli secondari.

Se all’algoritmo vengono fornite immagini di cani, la rete di neuroni ar­ti­fi­cia­li impara a fo­ca­liz­zar­si soltanto sul cane ignorando lo sfondo (noise). A partire da questi dati l’au­toen­co­der è in grado infine di creare un cane. Lo scambio dei volti nei deepfake funziona allo stesso modo: la rete neurale assimila l’aspetto di una persona ed è in grado di ri­ge­ne­rar­la au­to­no­ma­men­te, anche in movimento.

Per scambiare i volti in modo ef­fi­cien­te occorre poterne ri­co­no­sce­re due: quello che emerge dal materiale originale e quello che si vuole uti­liz­za­re per lo scambio. Per questo si impostano un’entrata (l’encoder) e due uscite (i decoder). L’encoder analizza il materiale, mentre i due decoder generano ognuno un output diverso: volto A e volto B.

L’effetto finale avviene per il fatto che l’algoritmo non inserisce il volto A nel video, ma il volto B, che non gli ap­par­tie­ne. Arriviamo così al cuore della dif­fe­ren­za rispetto ai normali fake: mentre in questi ci si limita a so­sti­tui­re il volto ori­gi­nar­le con uno ri­ta­glia­to da un’altra immagine, e ritoccato se ne­ces­sa­rio, nel caso dei deepfake si crea materiale del tutto nuovo. Con i deepfake, invece, non ci si limita a copiare un’immagine da un’altra parte, ma si crea del nuovo materiale. Soltanto così anche le mimiche possono ricalcare il volto originale.

Ciò chiarisce anche gli errori che accadono con i deepfake: le reti neurali mostrano i propri limiti spe­cial­men­te se si tratta di movimenti non ordinari. Se non è di­spo­ni­bi­le suf­fi­cien­te materiale dalla pro­spet­ti­va richiesta, il frame risulta sfuocato. L’algoritmo cerca di generare un’immagine a partire dal poco materiale sorgente, ma fallisce non potendo ri­co­strui­re i dettagli.

La storia dei deepfake: da Reddit al mondo intero

I deepfake nascono nel contesto di Reddit. Il sito è co­no­sciu­to perché nelle sot­to­ca­te­go­rie (i co­sid­det­ti subreddit) viene dato spazio anche a temi minori. Nel dicembre 2017 un redditor (nome con cui si indicano gli utenti di reddit) con lo pseu­do­ni­mo “deepfakes” ha creato un subreddit in cui ha pub­bli­ca­to video por­no­gra­fi­ci aventi come pro­ta­go­ni­ste alcune celebrità. Per fare questo l’utente anonimo ha costruito l’algoritmo descritto, che a propria volta si poggia su altre tec­no­lo­gie, come la bi­blio­te­ca open source Keras e Google Ten­sor­Flow.

In po­chis­si­mo tempo questo subreddit contava 15.000 seguaci. In seguito Reddit ha in­ter­rot­to l’attività del forum e, come altre aziende (tra cui la piat­ta­for­ma di video por­no­gra­fi­ci pornhub), ha proibito la dif­fu­sio­ne di porno fake. Tuttavia ciò non riesce a fermare la marcia dei deepfake: il codice svi­lup­pa­to per i deepfake è open source ed è perciò di­spo­ni­bi­le a chiunque. Su GitHub si possono trovare diverse re­po­si­to­ry nelle quali gli svi­lup­pa­to­ri lavorano all’algoritmo. Così è anche nata l’app per i deepfake, chiamata FakeApp.

Con questo programma, chiunque possieda un minimo di co­no­scen­ze in­for­ma­ti­che può attuare questi face swap. Per creare deepfake con l’app è ne­ces­sa­rio solamente una scheda grafica Nvidia ad alte pre­sta­zio­ni. Per i calcoli il programma utilizza il pro­ces­so­re grafico (GPU). Oltre che con la FakeApp, i deepfake possono anche essere creati con la CPU di un computer, anche se ciò richiede so­li­ta­men­te tempi più lunghi.

Oltre alla por­no­gra­fia, la comunità di Internet ha trovato altre ap­pli­ca­zio­ni per il face swap basato sul machine learning: par­ti­co­lar­men­te amata è ad esempio la pos­si­bi­li­tà di portare attori in film nei quali non hanno mai recitato. Proprio in questo modo è avvenuta la so­sti­tu­zio­ne, in un breve clip tratto da “Il Signore degli Anelli”, di tutti gli attori con Nicholas Cage. E con la stessa tecnica è stato so­sti­tui­to il volto di Sharon Stone con quello di Steve Buscemi nella fa­mo­sis­si­ma scena di Basic Instinct.

Effetti sulla società

In questi casi si tratta di go­liar­da­te innocue. Tuttavia la pos­si­bi­li­tà di ma­ni­po­la­re così fa­cil­men­te i video pone alla società diverse sfide. La prima riguarda la legalità: le celebri donne che ora appaiono in video por­no­gra­fi­ci non hanno mai dato il proprio consenso. Oltre al fatto che ciò è molto di­scu­ti­bi­le da un punto di vista morale, questi deepfake vanno a toccare sen­si­bil­men­te i diritti della per­so­na­li­tà e i video possono tra l’altro essere con­si­de­ra­ti dif­fa­ma­to­ri.

Fatto

Al momento esistono so­prat­tut­to deepfake con volti di celebrità. Ciò avviene prin­ci­pal­men­te perché su questi per­so­nag­gi è di­spo­ni­bi­le una grande quantità di materiale visivo fa­cil­men­te re­pe­ri­bi­le sul World Wide Web. Tuttavia non bisogna di­men­ti­ca­re che anche le persone qualunque pub­bli­ca­no sempre più foto di se stessi su Internet ri­schian­do perciò di diventare vittima dei deepfake.

Al di là dei danni in­di­vi­dua­li, i deepfake possono anche portare a cam­bia­men­ti nella società. Negli ultimi anni era già emerso il problema delle co­sid­det­te fake news. Diventa sempre più difficile di­stin­gue­re tra fatti realmente accaduti e false illazioni. Fino ad ora le prove video erano un indizio sicuro per la cor­ret­tez­za di un’af­fer­ma­zio­ne, ma con i deepfake ciò non è più vero. Senza troppo sforzo e senza enormi quantità di materiale si possono rea­liz­za­re delle vere e proprie ma­ni­po­la­zio­ni in grado di ingannare, ov­via­men­te non soltanto per fini di in­trat­te­ni­men­to.

I falsi sono e sono sempre stati im­por­tan­ti mezzi di pro­pa­gan­da. Con i deepfake è possibile in­fluen­za­re l’opinione pubblica in modo con­si­sten­te. Mentre un video nel quale il viso di Angela Merkel è so­sti­tui­to da quello di Donald Trump non è altro che una pa­gliac­cia­ta senza im­por­tan­za, il fatto di poter inserire i politici in contesti dove non sono mai stati è ben più pe­ri­co­lo­so. Poiché con il machine learning si può anche imitare la voce di una persona in modo credibile, i deepfake in futuro saranno sempre più rea­li­sti­ci e credibili. È normale pensare che tali con­traf­fa­zio­ni in­fluen­ze­ran­no ine­vi­ta­bil­men­te le campagne elet­to­ra­li e le relazioni in­ter­na­zio­na­li.

Per la nostra società ciò significa che dovremmo dare ai media, so­prat­tut­to ai media su Internet, minore cre­di­bi­li­tà. Già ora molte persone esprimono un sano dubbio quando si tratta di presunte novità. Tuttavia in troppi con­ti­nua­no a credere ad af­fer­ma­zio­ni che vengono diffuse nei social media ma prive di alcuna base fattuale. In futuro sarà sempre più difficile poter credere ai propri occhi.

In ogni caso gli sviluppi ri­guar­dan­ti i deepfake non sono soltanto di­strut­ti­vi o puerili. Il deep learning può ri­vo­lu­zio­na­re la creazione degli effetti visivi. At­tual­men­te è ancora re­la­ti­va­men­te com­pli­ca­to montare i volti di attori sui corpi di altre persone. Ad esempio nel film “Rogue One” è stato possibile creare con effetti visivi una giovane prin­ci­pes­sa Leia, anche se l’attrice Carrie Fisher all’epoca del film aveva già 60 anni. Un utente Internet grazie all’app Deepfake ha ottenuto un simile risultato in mezz’ora e con un PC comune, secondo le sue af­fer­ma­zio­ni. I deepfake hanno il potere di rendere gli effetti visivi nei media di in­trat­te­ni­men­to più veloci ed economici.

Si discute anche del fatto che i deepfake e la facilità con la quale si possono creare con­traf­fa­zio­ni potrebbe risultare in una maggiore scelta per gli spet­ta­to­ri: in futuro magari si avrà la pos­si­bi­li­tà di scegliere quale star debba ricoprire il ruolo di pro­ta­go­ni­sta sem­pli­ce­men­te con un clic prima dell’inizio del film. Ciò potrebbe accadere anche per l’ambito pub­bli­ci­ta­rio. Non è difficile im­ma­gi­na­re che a breve le star non dovranno più essere davanti alle te­le­ca­me­re per pub­bli­ciz­za­re capi firmati o bevande, ma po­treb­be­ro limitarsi a vendere una licenza per il proprio volto. Inoltre gli utenti avrebbero la pos­si­bi­li­tà di vedere in un negozio online la maglietta agognata indossata dalla star preferita.

In sintesi

Il machine learning offre scon­fi­na­te pos­si­bi­li­tà per il futuro della nostra società. Già adesso Google lavora grazie al deep learning e alle reti neurali ar­ti­fi­cia­li alla ca­te­go­riz­za­zio­ne di immagini e allo sviluppo di vetture au­to­gui­da­te. I deepfake mostrano ora uno dei possibili lati oscuri della tec­no­lo­gia, perché na­tu­ral­men­te gli sviluppi possono essere uti­liz­za­ti anche per fini di­strut­ti­vi. Sta alla società trovare soluzioni per tali problemi e uti­liz­za­re al meglio le pos­si­bi­li­tà del machine learning e dei deepfake.

Vai al menu prin­ci­pa­le