Cosa sono i deepfake e perché dovremmo cominciare a temerli

I deepfake sono una nuova applicazione dell’intelligenza artificiale e del machine learning capace di sfumare i confini tra vero e falso.

  • La nuova frontiera delle bufale, delle fake news, sono i deepfake
  • L’intelligenza artificiale rischia di dar vita a leggende metropolitane difficili da scalfire
  • Qualche soluzione per difendersi da questa deriva dell’informazione

“Cos’è la percezione della realtà? È la capacità di catturare, processare e dare senso a ciò che ricevono i nostri sensi? Se puoi ascoltare, vedere, toccare o annusare qualcosa, questo lo rende reale?”. A chiederlo in un video postato su Youtube l’anno scorso era Morgan Freeman, una delle stelle più longeve e famose di Hollywood. Non fosse che, alla fine della clip, lo stesso Morgan Freeman dichiarava di non essere Morgan Freeman: quello che i nostri sensi di spettatori avevano appena ricevuto era un deepfake, cioè una nuova applicazione dell’intelligenza artificiale e del machine learning capace di sfumare i confini tra vero e falso.

Cosa si intende per deepfake?

Il termine ha rapidamente colonizzato i media e buona parte del nuovo immaginario comune, ma che cosa sono per davvero i deepfake? Per cominciare va precisato che, nonostante il mondo abbia iniziato a parlarne negli anni a cavallo della pandemia di Covid-19, i deepfake esistevano, e progredivano, già da quasi un decennio: nel 2014 Ian Goodfellow, già capo della divisione intelligenza artificiale di Apple, pubblica un paper scientifico che introduce il concetto di “rete antagonista generativa” (o Gan, acronimo di Generative adversarial network), una particolare applicazione di machine learning in cui due reti neurali si “sfidano” in un gioco a somma zero che gli permette di imparare a generare nuove immagini a partire da un set di dati esistenti. E nel 2017 i ricercatori della multinazionale delle schede grafiche Nvidia potenziano e rendono più credibili i risultati delle reti Gan.

È la nascita del deepfake: siti come thispersondoesnotexist.com rendono disponibile al grande pubblico strumenti di falsificazione a buon mercato che non hanno precedenti nella storia dell’umanità, e per la prima volta il mondo si accorge che il nostro rapporto con la realtà è appeso a un filo. “Deep” perché i network neurali di questi strumenti di generazione sono costituiti da diversi layer: è il deep learning, quella forma di intelligenza artificiale che permette di arrivare a replicare fattezze e voce di persone reali; “fake” perché, beh, non c’è bisogno di spiegazioni.

IA
Ci dobbiamo interrogare su pregi e rischi dell’intelligenza artificiale © iStockphoto

A novembre del 2017 un utente anonimo posta su Reddit un algoritmo capace di produrre video finti ma realistici: il codice finisce sul popolare sito di code sharing GitHub, dove viene messo a disposizione di chiunque gratuitamente. E da allora il deepfake si fa strada nel primo grande settore in cui salirà alla ribalta: il porno. Applicazioni come FakeApp permettono a chiunque di inserire il volto di chiunque altro in video compromettenti che a prima vista sembrano realistici, generando un’infinità di rischi e tantissima misoginia: Scarlett Johansson, sua malgrado una delle protagoniste più frequenti dei finti video pornografici diffusi ai quattro angoli della rete, dirà che combatterli è “una causa persa”, dato che “internet è un oscuro buco nero che si nutre di se stesso”.

Quali sono i deepfake più famosi

Dai tempi dei suoi primi passi il “fake profondo” ha fatto tanta strada, e alcune sue incarnazioni hanno portato l’opinione pubblica a interrogarsi sui pregi e i rischi che questa nuova tecnologia porta con sé: oltre al già citato video deepfake di Morgan Freeman, opera degli olandesi Bob de Jong e Boet Schouwink, vanno citati almeno la finta resa del presidente ucraino Volodymr Zelensky, fatta circolare dalla Russia l’anno scorso, e il deepfake dell’attore Tom Cruise che ha spopolato su Tiktok, creato dall’esperto di effetti speciali Chris Ume e da Miles Fisher a partire da centinaia di migliaia di foto e video del divo hollywoodiano.

Il deepfake ha fatto la sua comparsa anche in televisione, allargando ancora il bacino di pubblico esposto ai suoi incantesimi: oltreoceano il programma satirico Saturday Night Live ha mandato in onda in prima serata un deepfake di Hillary Clinton in lacrime del tutto indistinguibile da un video genuino, mentre in Italia Striscia la Notizia ha fatto la stessa cosa con un video algoritmicamente generato dell’ex premier Matteo Renzi. Nel 2018, la testata online Buzzfeed aveva invece messo in circolo una clip finta-ma-vera di Barack Obama, che rivelava solo nel finale di essere interpretato dall’attore Jordan Peele.

I rischi dei deepfake

Da un grande potere derivano grandi responsabilità, diceva un noto supereroe dei fumetti, e il discorso si applica anche alle incognite che si stagliano all’orizzonte dei deepfake. Cosa accade quando migliaia, e potenzialmente anche milioni di persone credono a un video finto di un leader politico che annuncia una guerra nucleare? E prima ancora: che ne sarà del nostro rapporto con la realtà, ora che ciò che vediamo e sentiamo non è più “vero” per definizione?

Anche alle nostre latitudini, ai tempi del deepfake di Matteo Renzi a Striscia la Notizia, molti osservatori hanno fatto notare che la presentazione un po’ ambigua del contenuto in prima serata poteva dare adito a malintesi con conseguenze serie: Wired l’aveva definita “un’ulteriore sfida per il giornalismo e per l’opinione pubblica nel suo complesso”.

Ma all’estero, come spesso accade, il dibattito sui deepfake è molto più avanti di quel che conquista le prime pagine in Italia: l’anno scorso per la prima volta una campagna massiccia di video che mostravano finti mezzobusti televisivi insolitamente filo-cinesi ha inondato il Facebook e Twitter anglofono, aprendo un nuovo e preoccupante fronte dell’information warfare di stampo geopolitico.

Chi ci salverà dall’invasione degli ultra-fake?

Di certo non le leggi, almeno per ora: l’unico Stato ad aver passato misure urgenti per tentare di arginare il fenomeno è la Cina, che all’inizio di quest’anno ha reso obbligatorio ottenere il consenso della persona “falsificata” e mostrare segni distintivi, come i watermark, che attestino il carattere finto dell’opera. Ma anche il dragone ha gli stessi problemi del resto del mondo: come si fa ad arginare un fenomeno i cui più feroci abusatori operano spesso anonimamente, in piattaforme fluide dove i contenuti si moltiplicano così velocemente da poter agire quasi indisturbati?

Qualcosa, se non altro, inizia a muoversi anche nella vecchia Europa: Artificial Intelligence Act, appena approvato dal Parlamento Ue, mira a imporre un nuovo standard internazionale per la regolazione e la trasparenza degli applicativi di intelligenza artificiale. Ma molte parti del suo testo sono oggetto di dibattito e dubbi legali: è difficile definire il perimetro d’azione di ciò che si può etichettare come “intelligenza artificiale”, figuriamoci quanto può esserlo normarlo. Per ora, insomma, quelle foto e video di persone che non esistono sono destinate a fare il bello e il cattivo tempo: e noi, come in quel grande classico sanremese, a non vedere più la realtà.

Come si riconosce un deepfake

A fronte di tutti questi rischi, non rimane che capire come difendersi dai deepfake: cosa che non è affatto semplice, e lo diventerà sempre meno, col progredire esponenziale di queste (nell’ultimo Photoshop, Adobe ha presentato una funzione generativa capace di creare fotomontaggi pressoché indistinguibili dalla realtà).

Nel momento in cui scriviamo, le principali intelligenze artificiali hanno ancora qualche problema con la resa delle mani degli esseri umani: se vedete una terminazione di arto superiore che ha qualcosa di strano, non escludete che possa trattarsi di un falso.

Deepfake obama
Mani, occhi e pelle possono essere un indicatore di un eventuale deepfake © Newscientist

Il Mit raccomanda, tra le altre cose, di prestare attenzione alla pelle del volto dei protagonisti di sospetti deepfake: se appare troppo tirata, o viceversa troppo grinzosa o con gradi di anzianità diversi in diverse parti del viso, allora ci sono buone possibilità che quell’immagine, o quel video, non sia reale. E anche il battere le palpebre e il movimento delle labbra possono dare buone indicazioni in questo senso.

Siamo anche su WhatsApp. Segui il canale ufficiale LifeGate per restare aggiornata, aggiornato sulle ultime notizie e sulle nostre attività.

Licenza Creative Commons
Quest'opera è distribuita con Licenza Creative Commons Attribuzione - Non commerciale - Non opere derivate 4.0 Internazionale.

Articoli correlati
Come suona la musica del futuro, tra intelligenza artificiale e sensibilità umana

Creare arte e comporre musica grazie a reti neurali artificiali e algoritmi, ma con la stessa sensibilità di un essere umano, non è più utopia. Quando pensiamo all’intelligenza artificiale, il più delle volte la associamo alle attività in cui gli uomini possono facilmente essere rimpiazzati dalle macchine: nei lavori manuali, in quelli che richiedono calcoli

Toyota, 100 milioni per le startup

Attraverso Al Ventures, nuova sussidiaria del Toyota Research Institute, il marchio giapponese supporterà e finanzierà start up che operano nell’ambito dell’intelligenza artificiale e della mobilità sviluppando progetti volti a migliorare la vita delle persone.

sponsorizzato da Toyota Beyond Zero