Cosa hanno in comune Jim Carrey e Matteo Renzi?

Seeing isn’t believing

The Washington Post

Abbiamo visto tutti Jim Carrey interpretare magistralmente Jack Nicholson in The Shining. É vero, Jim Carrey ha vinto due Oscar, ma non ha mai reinterpretato il film di Kubrick.
Questo video, infatti, è un esempio (ben riuscito) di deepfake.

Si tratta di video manipolati attraverso l’intelligenza artificiale. Niente di particolarmente complesso: è qualcosa che vediamo tutti i giorni con i filtri di Instagram. Con il deepfake, però, si va un po’ oltre. Tracciando i punti più importanti dei volti di Jim Carrey e Jack Nicholson se ne riesce a manipolare completamente la mimica facciale e anche la voce del protagonista del remake è la stessa.
Finché si tratta del remake di un film, tutto ok. Se pensiamo, però, che questa tecnica di manipolazione può essere utilizzata per qualsiasi personaggio, è chiaro che diffondere un video del genere possa avere conseguenze tutt’altro che innocenti.

Deep fake - Jim Carrey interpreta Jack Torrance in The Shining
Deep fake – Jim Carrey interpreta Jack Torrance in The Shining

Quando nasce il deep fake?

Il deepfake nasce nel 2017, quando un utente Reddit – un social media utilizzato principalmente negli Stati Uniti – crea un canale nel quale inizia a far circolare una serie di video pornografici in cui al volto delle attrici protagoniste vengono sostituti quelli di noti personaggi dello spettacolo. Tra le altre, figurano Scarlett Johansson, Emma Watson, Taylor Swift, e Gal Gadot.

Come funziona

Creare questo tipo di video non è semplice e alla portata di tutti, ma non è nemmeno impossibile. Si tratta, infatti di un software che utilizza il deep learning, ossia una rete di nodi che autonomamente codificano i dati presi da librerie open-source (quindi tecnicamente accessibili da chiunque). In parole povere, basta dire a un software di accedere a una serie di immagini e video (anche banalmente da Google o YouTube) e sostituirle al video che si desidera manipolare. Un qualsiasi programmatore è in grado di farlo. Il primo utente Reddit che ha creato questi video, infatti, ha dichiarato in un’intervista per Vice a Samantha Cole, di non essere un professionista del settore, ma un semplice programmatore appassionato di apprendimento digitale.

Le conseguenze

Ultimamente, questa tipologia di video manipolati ha visto protagonisti il presidente Trump, Mark Zuckerberg e, addirittura, Matteo Renzi che insulta il premier Conte e il Presidente della Repubblica.

Può risultare senz’altro simpatico vedere Jim Carrey nei panni del custode dell’Overlook Hotel, ma vedere l’ex presidente Obama dire che “Il Presidente Trump è una m***a assoluta”, può avere un altro genere di conseguenze, se non ci si accorge della manipolazione. Sappiamo che le dichiarazioni di una personalità influente possono avere un impatto importante sull’opinione pubblica. Se consideriamo, poi, la velocità di diffusione dei video sul web, il fenomeno appare ancora più preoccupante.

Canale YouTube BuzzFeedVideo

Gli effetti del deepfake assumono già un altro senso se inseriti nel contesto della pornografia. Se poi riflettiamo sul fatto che non servono troppe immagini per creare un video del genere, probabilmente inizieremo a pensarci due volte prima di inondare i nostri profili social di selfie.

Fonti

Samantha Cole, AI-Assisted Fake Porn Is Here and We’re All Fucked, Vice, 11 dicembre 2017.

Profilo Instagram di Bill Poster (@bill_posters_uk)

Canale YouTube Buzz Feed (BuzzFeedVideo)

Canale YouTube Ctrl Shift Face (Ctrl Shift Face)