Verità e Deepfake: da Ice a Gaza non si sa più qual è la verità

I deepfake stanno diventando sempre più indistinguibili dalla realtà; in un contesto geopolitico come quello che stiamo vivendo diventano un'arma di disinformazione di massa molto potente.

Verità e Deepfake: da Ice a Gaza non si sa più qual è la verità - immagine di copertina

    C’è stato un tempo in cui l’ho visto con i miei occhi era una prova quasi definitiva. Oggi non basta più. Nell’era dei deepfake, ciò che vediamo e ascoltiamo online può essere una costruzione sofisticata, un’illusione digitale capace di replicare volti, voci e movimenti con una precisione impressionante. Negli ultimi anni questa tecnologia è passata da esperimento di nicchia a strumento potente e diffuso, capace di infiltrarsi nell’informazione quotidiana.

    L’evoluzione è stata rapidissima. Dai primi video grossolani in cui si intuiva facilmente il trucco, siamo arrivati a contenuti quasi indistinguibili dal reale. Algoritmi sempre più raffinati, intelligenze artificiali addestrate su enormi quantità di dati e strumenti accessibili anche a chi non è un tecnico hanno reso i deep fake una presenza costante nel panorama mediatico. E quando si parla di temi caldi, dalla politica internazionale ai conflitti come Gaza, fino alle polemiche legate all’Ice negli Stati Uniti, la linea tra realtà e manipolazione diventa pericolosamente sottile.

    Deep Fake: cosa significa

    Il termine deep-fake nasce dalla fusione di deep learning, una branca dell’intelligenza artificiale basata su reti neurali profonde, e fake, cioè falso. In pratica, si tratta di contenuti audiovisivi manipolati o interamente generati dall’AI in modo da far sembrare autentiche parole o azioni mai avvenute.

    Un deepfake può essere un video in cui una figura pubblica pronuncia frasi che non ha mai detto, oppure un audio che imita perfettamente la voce di una persona reale. Esistono anche immagini statiche create dal nulla ma così realistiche da sembrare fotografie scattate sul campo. Il punto non è solo la falsità, ma la credibilità della falsità.

    Le basi tecnologiche affondano negli studi accademici sul machine learning e sulle reti neurali sviluppati a partire dagli anni Novanta e Duemila. La svolta arriva però nel 2014 con l’introduzione delle GAN, le Generative Adversarial Networks, ideate dal ricercatore Ian Goodfellow e dal suo team. Queste reti mettono in “competizione” due algoritmi, uno che genera contenuti e uno che li valuta, migliorando progressivamente la qualità del risultato.

    Il termine deepfake diventa popolare nel 2017, quando su forum online iniziano a circolare video manipolati con volti di celebrità sovrapposti ad altri corpi. Da fenomeno underground, la tecnologia si diffonde rapidamente, trovando applicazioni nel cinema, nella pubblicità, nella satira, ma anche nella disinformazione e nella propaganda.

    Come i Deepfake stanno modificando l’informazione

    L’impatto sull’informazione è profondo. Se un tempo la verifica delle fonti si concentrava su documenti scritti e testimonianze, oggi anche un video non è più automaticamente una prova. Le redazioni devono dotarsi di strumenti tecnologici per analizzare metadati, incongruenze nei pixel, anomalie nei movimenti delle labbra o nella luce.

    Il problema è che la velocità della rete supera spesso quella della verifica. Un contenuto manipolato può diventare virale in poche ore, influenzando opinioni e dibattiti prima ancora che venga smentito. Anche quando la smentita arriva, l’effetto iniziale può aver già lasciato il segno. In un contesto di polarizzazione politica e conflitti internazionali, la diffusione di un deep fake può alimentare tensioni, rafforzare narrazioni estreme e minare la fiducia nei media tradizionali.

    Chi ha interesse a usare i Deepfake

    Gli interessi in gioco sono molteplici. Ci sono attori politici che possono utilizzare i deepfake per screditare avversari o manipolare l’opinione pubblica. Ci sono gruppi organizzati che li impiegano per diffondere propaganda o destabilizzare contesti già fragili. Esistono poi truffatori che sfruttano audio generati artificialmente per impersonare dirigenti aziendali o familiari, con l’obiettivo di estorcere denaro.

    Non bisogna dimenticare anche l’uso commerciale e creativo, che non è di per sé negativo. Il cinema e la pubblicità utilizzano tecniche simili per ricreare volti o ringiovanire attori. Il punto critico emerge quando la tecnologia viene impiegata senza trasparenza, con l’intenzione di ingannare o manipolare.

    Negli ultimi anni, durante campagne elettorali, conflitti armati e crisi internazionali, sono circolati video e audio sospetti attribuiti a leader politici o militari. In alcuni casi si trattava di montaggi grossolani, in altri di manipolazioni più sofisticate. Anche quando smascherati rapidamente, questi contenuti hanno contribuito ad aumentare il clima di sfiducia.

    Nei contesti di guerra, dove le immagini sono strumenti potenti di narrazione, un video manipolato può rafforzare una determinata versione dei fatti. In situazioni di tensione diplomatica, un audio falsificato può essere usato per creare confusione o provocare reazioni a catena. La disinformazione non nasce con i deep fake, ma con questa tecnologia ha acquisito una nuova dimensione visiva e sonora.

    Nei dibattiti più accesi, come quelli legati alle operazioni dell’Ice negli Stati Uniti o al conflitto a Gaza, i social network sono diventati terreno fertile per la diffusione di contenuti non verificati. Video attribuiti a operazioni specifiche, dichiarazioni shock di presunti funzionari, immagini drammatiche condivise milioni di volte: in mezzo a tutto questo, distinguere il reale dal manipolato richiede tempo e competenze.

    Il rischio più grande non è solo credere a un falso, ma arrivare a non credere più a nulla. Quando ogni contenuto può essere messo in dubbio, si entra in quella che alcuni definiscono “era della post-verità”, dove la percezione conta più dei fatti. Da Ice a Gaza, il problema non è soltanto quali immagini siano vere, ma come ricostruire uno spazio comune di fiducia.

    In questo scenario, l’unico antidoto possibile resta la combinazione di educazione digitale, strumenti tecnologici di verifica e responsabilità nella condivisione. Perché la tecnologia continuerà a evolversi, ma la capacità di distinguere, analizzare e dubitare in modo sano resta una competenza profondamente umana.

    Ti consigliamo anche

    Link copiato negli appunti