La violenza sulle donne si esercita adesso sempre di più con il deepfake (“falso profondo”). Revenge porn, umiliazione pubblica, diffusione di nudi integrali non sono più solo una triste esclusiva dei social. I vigliacchi che diffondono questi filmati possono far leva sui sistemi dell’intelligenza artificiale. La questione è esplosa nel dibattito pubblico statunitense. I principali network come Cnn dedicano servizi a un problema le cui origini, relativamente recenti, risalgono a un paio d’anni fa.
Si tratta della possibilità di combinare o sovrapporre immagini per creare un video falso ma perfettamente credibile, come spiega Corinna Spirito di Mashable Italia. Le persone “protagoniste” dei filmati che finiscono in Rete sono reali. Ma, attraverso montaggi perfetti, la situazione creata attorno a loro è falsa.
Il timore degli esperti è che si possano fabbricare in maniera sempre più facile col passare del tempo video altamente infamanti e, al tempo stesso, completamente fasulli ma non immediatamente riconoscibili come tali. Una situazione destinata a peggiorare in futuro, come sostiene uno studio condotto in Olanda dal team del ricercatore italiano Giorgio Patrini, citato da Mashable Italia.
Lo studio di Deeptrace – così si chiama la società di Patrini che si occupa di cybersicurezza -, non lascia molti dubbi. Su 14.678 video deepfake trovati in rete, il 96% è composto da materiale pornografico. Non sono soltanto le fake news il principale problema, bensì lo sfruttamento del corpo femminile. Sono le donne, al momento, a dover temere di più i video deepfake. “Il 100% dei deepfake porno che abbiamo individuato hanno donne per protagoniste”, ha dichiarato Patrini a Mashable Italia.
Il termine “deepfakes” è nato alla fine del 2017, riporta l’enciclopedia digitale libera Wikipedia, da un utente del social media Reddit chiamato “deepfakes.” Condivideva, con altri utenti, i video fake da loro stessi creati: in molti dei filmati venivano scambiati i volti delle celebrità con quelli di attrici in video pornografici. Mentre i contenuti non pornografici includevano parecchi video ritraenti il volto dell’attore Nicolas Cage inserito in diversi film.
Così si è progressivamente sviluppata la falsa pornografia, potenziata al’inverosimile dall’intelligenza artificiale. In seguito Reddit, e allo stesso modo altri siti web e social media quali Twitter, bannarono l’uso dei deepfake per pornografia involontaria. Persino lo stesso Pornhub, fra i siti porno più cliccati al mondo.
Photo credits: Twitter