Deep fake: quando il corpo diventa un pericolo

#6
#discriminazione #società
12/11/2019

Molti di noi, qualche mese fa, saranno rimasti sbigottiti e avranno riso davanti al video dove Jim Carrey sostituiva Jack Nicholson in alcune scene del celebre film Shining.

Abbiamo iniziato a ridere un po’ meno ieri sera, davanti al servizio de Le Iene, dove a venire raccontato e mostrato ai nostri occhi, è un altro utilizzo di questa tecnica, diventata ormai celebre e definita deep fake.

Il deepfake (parola coniata nel 2017) è una tecnica per la sintesi dell’immagine umana basata sull’intelligenza artificiale, usata per combinare e sovrapporre immagini e video esistenti con video o immagini originali, tramite una tecnica di apprendimento automatico, conosciuta come rete antagonista generativa. È stata anche usata per creare falsi video pornografici ritraenti celebrità e per il revenge porn, ma può anche essere usato per creare fake news, bufale e truffe.

LA NASCITA DEL FENOMENO

Il deepfake nasce inizialmente in due ambiti principali: quello accademico e quello della produzione di contenuti di intrattenimento per il web (una delle applicazioni che avevano reso celebre questa tecnica, era sostituire il volto di Nicholas Cage a quello di altri attori nei film più disparati).

Ovviamente il passo che ha portato all’utilizzo in ambito pornografico è stato brevissimo.

In poco tempo hanno iniziato a moltiplicarsi i video dove volti di attrici e attori noti andavano a sostituirsi a quelli di attori protagonisti di film porno; su reddit sono nati subtopic appositi dove questo genere di materiale veniva condiviso e per diverso tempo, questa tecnica rimane nel sottobosco del web.

Fino al 2017, quando Vice pubblica un articolo dove parla del fenomeno e fa scoppiare un vero e proprio caso dove appare evidente come il deepfake possa aprire le porte ad un incremento della falsa pornografia.

Nel 2018 la comunità reddit sui deepfake viene bannata per condivisione involontaria di pornografia e da lì anche le altre piattaforme dove questi contenuti circolavano (Pornhub su tutti), iniziano a bannare gli utenti che li fanno circolare e in generale applicano politiche molto più severe su queste tematiche.

IL SERVIZIO ANDATO IN ONDA SU LE IENE (5 novembre)

Nel corso della puntata del 5 novembre la redazione de Le Iene si è concentrata su questo fenomeno e ha parlato di un caso recente, accaduto a Fabiana Pastorino, modella curvy e body postive influencer.

Fabiana denuncia di essere venuta a scoprire online delle foto che la ritraevano nuda.

Nessun problema, se non fosse per il fatto che queste foto in realtà erano state realizzate utilizzando proprio la tecnica del deepfake, attingendo da immagini in costume della ragazza.

Fabiana ha affrontato con forza questo avvenimento, ma cosa accadrebbe se ad esserne vittima fossero persone più deboli o se queste immagini venissero usate con fini ancora meno nobili rispetto a quelli pornografici, come per esempio truffe o ricatti?

Sempre più spesso infatti si sente associare questo fenomeno a quello del revenge porn (di cui parleremo in un prossimo articolo), che negli ultimi anni ha fatto danni e vittime, ma che con questa nuova evoluzione potrebbe diventare ancora più insidioso, dal momento che letteralmente chiunque potrebbe esserne vittima.

Se anche tu sei o sei stato vittima di bullismo, omofobia o body shaming, raccontaci la tua storia.

Siamo qui per ascoltare.