L’articolo di MIT Technology Review, scritto da Melissa Heikkilä e pubblicato il 29 gennaio 2024, affronta il tema dei deepfake pornografici non consensuali, focalizzandosi su un recente caso che ha coinvolto Taylor Swift. Il fenomeno dei deepfake è stato facilitato dall’avanzamento dell’AI generativa e ha portato a un aumento di immagini e video pornografici creati senza consenso, colpendo soprattutto le donne. L’articolo sottolinea l’importanza di un approccio combinato che includa sia soluzioni tecniche che normative per combattere efficacemente i deepfake pornografici non consensuali.
- Soluzioni tecniche
- Watermarks (Filigrane): L’uso di segnali invisibili inseriti nelle immagini per identificare se sono state generate dall’AI. Sistemi come SynthID di Google modificano i pixel e aggiungono una filigrana rilevabile anche dopo modifiche o screenshot. Questo potrebbe velocizzare la moderazione dei contenuti, rendendo più facile individuare i deepfake. Le filigrane rendono più difficile creare deepfake, ma non si può escludere che possano essere manipolate.
- Protective Shields (Scudi Protettivi): Strumenti che alterano le immagini per renderle inutilizzabili dai sistemi AI. Ad esempio, PhotoGuard del MIT altera i pixel in modo invisibile, rendendo i risultati dell’AI irrealistici. Strumenti simili, come Fawkes e Nightshade, impediscono il riconoscimento facciale o “avvelenano” le immagini per rompere i modelli AI. Gli Scudi Protettivi non funzionano su immagini già online e potrebbero non essere efficaci contro future versioni di AI.
- Regolamentazione
- Stati Uniti: Negli USA, la regolamentazione dei deepfake è stata inizialmente gestita su base statale. California e Virginia, ad esempio, hanno vietato la creazione di deepfake pornografici senza consenso. Gli Stati di New York e Virginia hanno esteso il divieto alla distribuzione di questi contenuti. Recentemente, è stata proposta una legge federale che renderebbe federale il reato di condividere immagini nude finte. Questo movimento è stato stimolato da casi gravi, come quello di un liceo nel New Jersey, che hanno generato pressione pubblica.
- Europa: Nel Regno Unito c’è l’ Online Safety Act che proibisce la condivisione di materiale pornografico deepfake, pur non vietandone esplicitamente la creazione. La legge prevede sanzioni penali per i trasgressori. L’Unione Europea, attraverso l’AI Act, impone ai creatori di deepfake di dichiarare esplicitamente che il contenuto è stato generato dall’intelligenza artificiale. Attraverso il Digital Services Act si richiede alle aziende tecnologiche di rimuovere rapidamente i contenuti dannosi, inclusi i deepfake non consensuali.
- Cina: La Cina ha adottato la Legge sui Deepfake del 2023, che ha un approccio severo nei confronti dei deepfake. Questa legge richiede ai creatori di deepfake di: prendere misure preventive contro l’uso dei loro servizi per scopi illegali o dannosi; ottenere il consenso esplicito degli utenti prima di trasformare le loro immagini in deepfake; verificare l’identità delle persone coinvolte; contrassegnare chiaramente i contenuti generati dall’intelligenza artificiale.
A commento generale, si può sottolineare che la diffusione di deepfake pornografici non consensuali mette in luce la problematica di una sessualità distaccata dal suo contesto relazionale e consensuale. Questa forma di pornografia digitale, creata senza consenso, degrada la sessualità, trasformandola in una mera rappresentazione oggettivata, e allontanandola dal suo essere espressione umana profonda e significativa. Affrontare questo fenomeno richiede non solo soluzioni tecnologiche e normative, ma anche una riflessione culturale sulla valorizzazione del rispetto e del consenso nelle relazioni sessuali.