Grazie alla tecnologia creare video fasulli – compresi quelli pornografici – è (quasi) alla portata di tutti
Hollywood lo sa bene: nessuno muore o invecchia davvero… Grazie alla computer grafica. Con l’impiego di tecniche complesse, tra le quali la più famosa è la Cgi (Computer generated imagery), il compianto Paul Walker ha avuto la sua performance post mortem in Fast & Furious 7 (2015). Pare anche che la stessa Carrie Fisher – pace all’anima sua – abbia stentato a riconoscersi in Rogue one: a star wars story (2016), il primo spinoff della saga, dove appare ringiovanita di parecchi anni.
Nella pellicola, infatti, il volto della giovane principessa Leila è stato “montato”, grazie alla computer grafica, sul corpo dell’attrice norvegese Ingvild Deila. La Fisher, alla quale la scena era stata fatta vedere in anteprima, pensava si trattasse addirittura di un fotogramma originale degli anni Settanta. Sistemi come la Cgi o la motion capture sono altamente sofisticati e richiedono macchine molto potenti con costi, come si immagina, proibitivi. Tuttavia, una storia abbastanza recente testimonia quanto ormai queste tecnologie non siano più appannaggio esclusivo di calcolatori da fantascienza, ma (quasi) alla portata di tutti. È l’autunno del 2017 e siamo su Reddit, popolare piattaforma di social news e intrattenimento. L’utente Deepfake crea un omonimo subreddit – nome che viene dato alle categorie o aree di interesse – contenente scene di film nelle quali il volto degli attori originali è sostituito con quello di altre persone. I frame diventano subito molto popolari e, come spesso accade online, a consacrarne il successo arriva la declinazione pornografica (The internet is for porn, come suggerisce il titolo di una divertente canzone, famosa tra il popolo della rete, originaria del musical di Broadway Avenue Q).
Deepfake e i suoi seguaci, una entità come quindicimila persone, falsificano infatti dei filmati hard nei quali il volto della pornostar – il femminile non è casuale, si tratta sempre e solo di donne – viene scambiato con quello di attrici o personaggi dello spettacolo (Gal Gadot, Taylor Swift, Emma Watson…). Intervistato dalla rivista Motherboard, il celebre redditor ammette di essere un programmatore informatico appassionato di machine learning e di aver realizzato i video con una certa facilità, utilizzando semplicemente programmi open source e archivi online (Google in primis). Ciò che serve è soprattutto un’enorme quantità di immagini sulla quale far lavorare la macchina; più fotogrammi, e quindi dati, ci sono, più sarà semplice per l’algoritmo creare da zero la clip contraffatta.
Per facilitare la vita agli altri utenti, forse non altrettanto esperti, Deepfake aveva reso disponibile online un’applicazione per la creazione di video fasulli, opportunamente chiamata FakeApp. Grazie a questo strumento i filmati hanno iniziato a diffondersi a macchia d’olio, diventando, come si dice, virali. Naturalmente le star protagoniste dei falsi non sono state molto felici dell’idea, anche perché qualche violazione effettivamente c’era. Le clip trasgredivano specifiche clausole riguardanti la sfera sessuale: è illegale, infatti, riprendere qualcuno in intimità senza avere il suo consenso. Le scene non erano vere, ma il danno all’immagine lo era di certo. E così nel febbraio del 2018 Reddit, Pornhub e Twitter (altre piattaforme sulle quali giravano i video) hanno “bannato” tali contenuti in quanto illeciti. Ciò che colpisce maggiormente nell’intera faccenda è la facilità con la quale i filmati sono stati realizzati. Ancora nel 2017 un gruppo di ricercatori della Washington University aveva dato vita a un progetto chiamato, significativamente, Synthesizing Obama, il cui scopo era quello di creare dei video fake dell’ex presidente degli Stati Uniti a partire da file audio e immagini originali.
La scelta del soggetto si spiega col grande numero di immagini e frame disponibili: facilmente reperibili, di buona qualità e con il volto dell’uomo sempre al centro. Diciassette ore di girato e circa due milioni di fotogrammi sono stati dati in pasto a un’intelligenza artificiale addestrata su reti neurali. Quando si parla di deep learning, machine learning, intelligenza artificiale e reti neurali è facile fare un po’ di confusione, nonostante i concetti siano tra loro ben distinti. Il machine learning è una branca dell’intelligenza artificiale che riguarda lo studio, la costruzione e l’implementazione di algoritmi che permettono ai sistemi di calcolo di fare previsioni in modo automatico a partire da un insieme di dati. Un esempio di machine learning è Google: i suoi sofisticati algoritmi, che hanno a disposizione un numero immenso di informazioni, sono in grado di interpretare le sempre più bizzarre domande degli utenti e fornirvi un’adeguata risposta.
Il deep learning è, a sua volta, un ramo del machine learning, la cui caratteristica è la stratificazione (deep learning significa, appunto, “apprendimento profondo”), basata su reti neurali artificiali. Semplificando molto, la rete è costituita da neuroni, raffigurabili come nodi, strettamente connessi tra loro. Ai neuroni di input vengono forniti dei dati, che sono poi elaborati dai nodi nascosti della rete – più ce ne sono, più la rete è complessa; infine, i neuroni di output forniscono una risposta appropriata alla domanda. La rete, quindi, costituisce l’architettura con la quale è costruito il deep learning. L’assistente vocale di Apple, Siri, funziona esattamente in questo modo: i nodi di input ricevono la domanda, i nodi nascosti la interpretano sulla base degli algoritmi con la quale è “addestrata” e i nodi di output rispondono. Questi sistemi sofisticati vanno, appunto, istruiti e, se con il materiale audio è abbastanza difficile, con i file video è decisamente complesso. Il regista Jordan Peele ha collaborato con il sito d’informazione BuzzFeed alla realizzazione di un filmato molto credibile in cui Barack Obama dice cose come «President Trump is a total and complete dipshit», non esattamente una dichiarazione che si possa fare pubblicamente.
Nonostante sia possibile immaginare un impiego positivo di tali tecnologie (per esempio in campo commerciale, per vedere come “calza” un vestito senza indossarlo realmente), non mancano i risvolti inquietanti. Pensiamo alla quantità di immagini che ogni giorno diamo in pasto ai social network e al loro eventuale utilizzo illecito. È abbastanza facile prevedere anche i possibili usi strumentali che governi, multinazionali, giornali, potrebbero farne. Per correre ai ripari il Wall Street Journal sta mettendo insieme una vera e propria task force dedicata allo smascheramento dei video fasulli. Prima regola? Controllo delle fonti. Quello che è certo è che, se non vogliamo essere vittime delle nuove fake news, sempre più credibili, dobbiamo coltivare e affinare uno spregiudicato senso critico.
Le immagini: una foto dell’ex presidente degli Stati Uniti Barack Obama.
Chiara Ferrari
(LucidaMente, anno XIV, n. 157, gennaio 2019)