L’intelligenza artificiale non è più solo uno strumento di innovazione: è anche un’arma potenzialmente pericolosa. La diffusione incontrollata di immagini deepfake, soprattutto a sfondo sessuale, sta aprendo scenari allarmanti che coinvolgono donne, personaggi pubblici e, nei casi più gravi, minori. Ne abbiamo parlato in diretta con l’Avv. Giuseppe Di Palo.
Immagini false, reati veri
Basta una fotografia pubblicata sui social per creare contenuti falsi ma estremamente realistici. Un fenomeno che corre più veloce della consapevolezza collettiva e che spesso viene sottovalutato, liquidato come uno scherzo o una provocazione. Ma la legge italiana ha già tracciato una linea netta.
Il Codice Penale punisce severamente la produzione e la diffusione di immagini sessualmente esplicite che coinvolgano minori, anche quando queste siano frutto di elaborazioni digitali o artistiche. Con l’introduzione, nel 2025, di nuove fattispecie di reato legate ai deepfake, il legislatore ha riconosciuto ufficialmente la pericolosità di queste pratiche.
Il problema, però, non è solo giuridico. È culturale e sociale. La facilità con cui si condividono immagini online, soprattutto dei più piccoli, crea un bacino enorme di materiale potenzialmente utilizzabile per scopi illeciti. Per questo gli esperti invitano alla massima prudenza: meno foto online significa meno possibilità di abuso. In un’epoca in cui l’intelligenza artificiale può “spogliare” una persona con un click, la vera difesa resta la consapevolezza. E la responsabilità di chi pubblica.










