Deepfake pornografici, una minaccia ben oltre la sfera privata

I deepfake pornografici non danneggiano solo la sfera privata delle vittime, ma possono riservare anche ripercussioni psicologiche, oltre a porre questioni legali importanti per i relativi autori.

In questi ultimi mesi, stiamo scoprendo che le applicazioni dell’intelligenza artificiale sono quasi infinite. Alcune possono aiutarci nella nostra vita lavorativa di tutti i giorni, come succede con gli strumenti di IA generativa. Ma altre hanno un lato oscuro, come vediamo con i deepfake.

Inizialmente, ci siamo accorti che i deepfake servivano per scopi di intrattenimento, ma con il tempo abbiamo capito che potevano venire distorti per generare disinformazione in contesti politici, di reputazione di brand e di prodotti. Ora ci rendiamo conto anche del relativo potenziale nella creazione di video a carattere pornografico.

Lo studio “State of deepfake 2023” a cura di Home Security Heroes offre alcuni dati salienti. Ad esempio, rivela che la quantità totale di video deepfake che esistono in rete è cresciuta del 550% rispetto al 2019. Allo stesso modo, si sottolinea che la pornografia deepfake rappresenta il 98% di tutti i video deepfake online.

Inoltre, si segnala che creare un video pornografico deepfake di 60 secondi richiede solo una foto nitida della faccia della vittima e impiega appena 25 minuti, senza alcun costo economico. Altro dato rilevante del rapporto è che il 99% delle persone che cadono vittima di questa applicazione sono donne.

“La creazione di contenuti espliciti creati dall’IA, o deepfake sessuali, non viene ancora contemplata come reato dal nostro codice penale. Tuttavia, prendendo a riferimento l’idea della violenza di genere come quella violenza che si esercita ai danni delle donne, la creazione di questo tipo di immagini non è altro che un’altra forma di questa violenza”, spiega Rocio Pina, professoressa di Studi di Psicologia e Scienze dell’Educazione e di Criminologia dell’Università della Catalogna.

La creazione di deepfake viola due grandi diritti: la tutela dei dati, della privacy e dell’intimità e la violazione del proprio onore e della propria immagine. “Viene lesa la normativa di protezione di dati perché esiste una diffusione dell’informazione che, anche se essenzialmente falsa, utilizza dati personali reali come il volto di una persona e a volte anche la voce. E questo, spesso e volentieri, presuppone un trattamento dei dati personali in assenza del consenso del soggetto interessato. Inoltre, la violazione della normativa avviene anche nel momento della condivisione e diffusione del materiale generato con IA a persone terze, e a volte anche tramite le reti social aperte, vista la mancanza di consenso dell’interessato”, precisa Eduard Blasi, professore associato di Studi di Diritto e Scienze Politiche del medesimo ateneo.

Si sottolinea poi che “queste immagini spesso presuppongono un trattamento di dati sensibili, visto che l’informazione riguarda la vita intima o sessuale di una persona e, in funzione all’immagine generata, si può produrre una lesione all’onore, alla sfera privata e/o all’immagine della persona”.

Senza contare che i deepfake pornografici possono riservare pesanti conseguenze psicologiche sulle vittime. “Questi nuovi modi di esercitare violenza attraverso i mezzi digitali amplia la portata del problema e amplifica le conseguenze che le vittime potrebbero riportare”, ribadisce Pina. Così, è bene ricordare che la violenza informatica contro le donne colpisce direttamente la salute mentale. Inoltre, dall’ateneo fanno sapere che diverse indagini hanno riscontrato alti tassi di problemi di salute mentale, tra cui ansia, depressione, autolesionismo e suicidio, come risultato degli abusi nel mondo digitale, indipendentemente dal fatto che il contenuto utilizzato fosse stato deepfake o reale.

E ricordiamo che questi deepfake stanno estendendo la problematica anche ai minori. Secondo uno studio di Internet Watch Foundation, esistono prove ragionevoli del fatto che l’IA stia aiutando a creare immagini pornografiche con minori, le cui immagini dove apparivano vestiti erano state postate su internet.