BRUXELLES - L’immagine manipolata della Presidente del Consiglio, Giorgia Meloni, ritratta in lingerie in un falso virale, ha riacceso con forza il dibattito europeo sui deepfake e sui pericoli dell’intelligenza artificiale generativa. La premier ha scelto di rispondere pubblicamente via social, utilizzando l’ironia per depotenziare l’attacco (“chi le ha realizzate mi ha anche migliorata parecchio”) ma spostando immediatamente il focus sul profilo etico e sulla sicurezza collettiva. 

“Il punto va oltre me”, ha avvertito Meloni denunciando una forma di cyberbullismo ideata per attaccare e inventare falsità: “Io posso difendermi. Molti altri no”. Il monito della premier è chiaro: se una figura istituzionale ha gli strumenti per smentire un falso, i comuni cittadini, e soprattutto i più fragili, rischiano di subire danni reputazionali, economici e psicologici irreversibili. 

L’appello non è rimasto inascoltato a Bruxelles. La vicepresidente del Parlamento europeo, Antonella Sberna, ha sottolineato come questo fenomeno colpisca in modo insidioso le donne nelle istituzioni, minandone la dignità e alterando la percezione della realtà per i cittadini. 

In risposta all’accaduto, gli eurodeputati di Fratelli d’Italia, Carlo Fidanza e Stefano Cavedagna, hanno annunciato una risoluzione per l’applicazione immediata dell’AI Act. La richiesta centrale è l’obbligo di watermarking (marcatura) per ogni contenuto generato artificialmente. Senza specifiche tecniche che rendano subito riconoscibili i deepfake, la normativa rischia di restare inefficace di fronte a una tecnologia capace di produrre materiale pornografico sintetico o manipolazioni politiche in pochi secondi. 

Il caso Meloni è solo la punta dell’iceberg di una criticità che sta travolgendo le fasce più giovani della popolazione. Mentre la politica discute di regolamenti, i dati globali dipingono un quadro allarmante riguardo alla violenza sessuale digitale, con un rapporto di Save The Children secondo cui un minore su cinque dichiara di essere stato vittima di deepfake a sfondo sessuale creati senza il proprio consenso.  

In ambito scolastico, un report di Wired ha documentato casi di manipolazione di immagini che hanno coinvolto oltre 600 studenti in 28 Paesi, includendo episodi drammatici come quello di Almendralejo, in Spagna, dove venti bambine tra gli 11 e i 15 anni hanno scoperto falsi nudi creati e diffusi dai propri compagni di classe.  

Parallelamente, sul fronte della responsabilità delle piattaforme, la Commissione Europea ha già avviato un’indagine formale su X per la diffusione di contenuti illegali e manipolazioni sessuali esplicite, evidenziando il rischio che i social diventino vettori di abuso, anche infantile. 

L’esperienza di Meloni (già vittima in passato di un video pornografico falso finito a processo a Sassari) dimostra che la legislazione attuale fatica a tenere il passo. In Spagna, per il caso di Almendralejo, le piattaforme sono state esentate da responsabilità mentre l’autore è stato sanzionato con una multa di soli 2000 euro, una cifra che molti esperti ritengono inadeguata rispetto al danno causato. 

Organizzazioni come Save The Children e attivisti per i diritti digitali insistono sul fatto che la soluzione non possa essere solo il castigo ex post, ma debba risiedere nella prevenzione. Serve un’educazione digitale che insegni a “verificare prima di credere e credere prima di condividere”, come suggerito dalla stessa premier.