Attrici, politiche e sportive italiane sono finite al centro di un nuovo caso di abusi digitali: centinaia di immagini false, realizzate con l’intelligenza artificiale, le ritraggono nude o in atti sessuali espliciti. Gli scatti sono ospitati su Cfake, un sito web ora oggetto di un’indagine della Procura di Roma.
A rivelare lo scandalo è stato il Tg1, che ha raccolto la testimonianza diretta di una delle vittime, l’ex tuffatrice Tania Cagnotto. “Sono scioccata. Mi sono sentita abusata e derubata”, ha dichiarato l’atleta. “Quello che mi preoccupa di più sono le conseguenze gravissime che queste cose possono avere sulle giovani generazioni”.
443 italiane colpite da deepfake porn
Cagnotto è solo una delle 443 donne italiane comparse su Cfake in immagini sessualmente esplicite, completamente generate dall’IA. Il sito ha continuato a macinare milioni di visualizzazioni, includendo anche star del passato come Sophia Loren e Anna Kanakis.
Gli inquirenti ora stanno cercando di capire come procedere legalmente, visto che il server potrebbe trovarsi all’estero. Le accuse ipotizzate sono diffamazione e trattamento illecito di dati personali.
Intelligenza artificiale e pornografia non consensuale
Il fenomeno dei deepfake porn sta assumendo proporzioni allarmanti, colpendo indiscriminatamente figure pubbliche e persone comuni. Il vuoto normativo e la difficoltà di intervenire su server internazionali rendono la repressione del fenomeno complessa.
Intanto, l’indignazione pubblica cresce e si moltiplicano gli appelli a interventi legislativi urgenti per tutelare la dignità e la privacy delle vittime, spesso inconsapevoli bersagli di una tecnologia fuori controllo.