blozine l'editoriale dalla B alla Z

Torna a precedente

Deepfake e adolescenti, quando la tecnologia diventa una minaccia

Sempre più giovani cadono vittima dei deepfake pornografici, una minaccia invisibile che nasce dal cattivo uso dell’intelligenza artificiale

Deepfake e adolescenti, quando la tecnologia diventa una minaccia

Condividi

Dai casi italiani ai dati internazionali, cresce l’allarme per i deepfake che colpiscono i minori, tra violazioni della privacy e vuoto

Un ragazzo su otto tra i 13 e i 20 anni, e un adolescente su dieci tra i 13 e i 17 anni, ha dichiarato di “conoscere personalmente qualcuno vittima di immagini di nudo deepfake”. Uno su diciassette, invece, è stato lui stesso oggetto di manipolazioni di questo tipo. Sono i dati diffusi da Thorn, un’organizzazione no profit statunitense che si occupa di tutela dei minori nel mondo digitale, e che lancia un allarme sul crescente fenomeno dei deepfake nude, una delle forme più invasive della manipolazione digitale.

Quando l’intelligenza artificiale diventa un’arma

I deepfake sfruttano algoritmi di intelligenza artificiale per ricreare immagini e video falsi ma incredibilmente realistici. In particolare, alcune applicazioni – come Clothoff, poi bloccata dal Garante per la Privacy – permettono di “spogliare” virtualmente una persona, generando immagini di nudo artificiali e non consensuali. Un abuso tecnologico che trasforma l’IA da strumento di innovazione a mezzo di violenza psicologica e sessuale.

Le vittime famose e le persone comuni

La celebrità non protegge da questo tipo di violenza digitale. Taylor Swift, già nel 2014, fu vittima di un fake pornografico condiviso da milioni di utenti. Ma chiunque può diventare bersaglio: secondo una ricerca della società di analisi Graphika, milioni di persone visitano ogni mese più di cento siti di “nudify”, piattaforme che permettono di generare immagini false di nudo. In Gran Bretagna, un’indagine condotta da ESET ha rivelato che una donna su dieci è stata vittima di deepfake pornography.

Le app che alimentano il fenomeno

Oltre a Clothoff, esistono altre applicazioni come BikiniOff e DeepNude, capaci di ricreare contenuti sessuali falsi a partire da semplici fotografie. Già nel 2020 il Garante per la Privacy aveva aperto un’istruttoria nei confronti di Telegram, canale attraverso il quale venivano diffusi i bot responsabili di tali manipolazioni. Successivamente l’Autorità ha pubblicato una scheda informativa per avvertire gli utenti sui rischi legati all’uso di queste tecnologie e sull’importanza della segnalazione tempestiva.

Numeri e responsabilità

La ricerca di Thorn ha rivelato che il 13% degli adolescenti conosce qualcuno che ha usato l’intelligenza artificiale per creare o diffondere materiale pornografico deepfake di minori. Un dato inquietante che mostra come questa tecnologia sia ormai alla portata di tutti, anche dei più giovani, e quanto manchi ancora una reale consapevolezza delle conseguenze legali e morali di tali gesti.

I casi italiani e il vuoto educativo

Anche in Italia il fenomeno è ormai diffuso. Nel 2023 due studenti di una scuola media di Roma sono stati fermati dopo aver pubblicato sui social immagini manipolate di alcune compagne, generate tramite BikiniOff. L’anno successivo, in provincia di Latina, cinque minorenni hanno fatto lo stesso, falsificando le foto delle coetanee prese dai loro profili Instagram. Episodi che evidenziano non solo la diffusione del fenomeno, ma anche l’urgenza di una educazione digitale etica e di strumenti di prevenzione adeguati.

Educare alla consapevolezza

Contrastare la pornografia deepfake non significa solo punire chi la produce o la diffonde, ma anche promuovere una cultura del rispetto e della responsabilità nell’uso dell’intelligenza artificiale. La tecnologia, se priva di etica, diventa un’arma. Ma con una formazione adeguata e una maggiore sensibilità collettiva, può tornare ad essere ciò per cui è nata: un mezzo per migliorare la vita, non per distruggerla.


Condividi

06 Ottobre 2025
© team icoe, editoriale blozine
https://www.blozine.it/home.do?dettagli=deepfake-e-adolescenti&key=1759744806

l'editoriale, dalla B alla Z

blozine editoriale no-profit della

icoe, centro studi su innovazione, comunicazione ed etica.
Centro studi su innovazione, comunicazione ed etica.
www.icoe.it


Copywriters
Francesca S., Matteo R., Laura A., Antonella B., Giorgio F., Anna C., Miriam M., Stefano G., Adele P. e Francesca N.
Chi siamo

Facebook blozine
iscriviti sulla nostra pagina Facebook e non perderai nessuna notizia!

gruppo mediterranea
gruppo mediterranea


Precedente

qrcode
LANGUAGE

gruppo mediterranea

© blozine, l'editoriale dalla B alla Z della www.icoe.it. Tutti i diritti sono riservati.