×

Rischi

Caso Francesca Barra, l'allarme deepfake porno e la sfida per proteggere la privacy

La denuncia della giornalista, finita nuda in un sito per adulti, riaccende l'allarme sulla facilità di creare, grazie anche a server esteri, foto e immagini di fatto mai realizzati dalle vittime

Redazione La Sicilia

27 Ottobre 2025, 19:01

Caso Francesca Barra, l'allarme deepfake porno e la sfida per proteggere la privacy

L’ultimo episodio denunciato dalla giornalista e conduttrice televisiva Francesca Barra, che ha scoperto la diffusione di sue immagini di nudo generate dall’intelligenza artificiale e pubblicate su un sito per adulti, riaccende i riflettori su una delle emergenze digitali del momento.

Chiunque può finire nel mirino dei cosiddetti deepfake pornografici — con un rischio più alto per i personaggi noti — vedendo circolare foto o video intimi mai realizzati. È legittimo chiedersi come si possa arginare questa deriva.

«È una rincorsa a questi siti che spesso hanno server in altre parti del mondo e sono difficili da buttare giù. Una volta pubblicate le foto il danno è fatto, Internet è come una grande fotocopiatrice. Ma se questi siti esistono è perché c’è una domanda degli utenti, è un problema culturale difficile e che richiede tempo», spiega all’ANSA Vincenzo Cosenza, analista del digitale ed esperto delle principali piattaforme di IA generativa per immagini e video.

Marco Ramilli, fondatore di IdentifAI — startup italiana che individua prodotti contraffatti dall’IA — aggiunge che «non esiste una soluzione finale al problema» e raccomanda alcune cautele: «ridurre il più possibile la propria esposizione e configurare bene i profili social per limitare chi può guardare i nostri contenuti».

Sul versante tecnico, Cosenza osserva: «Creare un deepfake in genere è molto facile anche con programmi gratis e senza avere competenze. Ma creare un deepfake porno è un lavoro più strutturato: ci vogliono programmi ad hoc da installare sui propri computer e modelli di intelligenza artificiale open source, aperti, che hanno meno barriere. È un lavoro fattibile ma più organizzato». L’esperto cita il software gratuito ComfyUI e il modello open source Flux.

Il fenomeno è in forte crescita e assume i contorni dell’emergenza. «Il 22,6% delle persone ha riferito di aver subito un’esperienza di creazione, acquisizione o condivisione non consensuale di immagini intime comprese le minacce di condivisione», ricorda Ramilli, richiamando un’analisi pubblicata lo scorso marzo dai ricercatori Rebecca Umbach (Google), Nicola Henry e Gemma Beard (Università di Melbourne).

Sul fronte delle contromisure, aggiunge: «I big della tecnologia stanno investendo su filigrane, watermark, per distinguere le immagini generate dall’intelligenza artificiale generativa ma ci sono diversi problemi, possono anche essere rimosse con facilità. Credo non ci si possa fidare solo di queste contromisure, ma bisogna avere una o più terze parti che vadano a verificare l’operato».

La risposta repressiva resta complessa. «Quella ai siti che pubblicano deepfake porno è una rincorsa, anche se vengono chiusi le foto una volta pubblicate girano in rete», ribadisce Cosenza. «L’unica cosa che può fare l’utente è ricorrere all’autorità giudiziaria: in Italia, con la nuova legge sull’intelligenza artificiale, è stato introdotto il reato di deepfake, ma bisogna arrivare a chi l’ha distribuito e spesso i server di queste piattaforme non sono nel nostro Paese».

Sulla cornice normativa, Ramilli conclude: «È stato lungimirante da parte dell’Italia: poche nazioni sono arrivate a normare il deepfake. Darà un grado di protezione in più e l’efficacia la scopriremo col tempo. Ma dobbiamo capire che quello che consideravamo reale un tempo ora non lo è più, non possiamo più basarci su quello che sapevamo. La realtà è divisa su più fronti, non ci possiamo più fidare e dobbiamo educare le nuove generazioni a farsi più domande».