Deepfake, deepfuck!

Mentre le città sono illuminate per le festività, una nuova forma di nebbia digitale sta avvolgendo i nostri schermi. In questo scorcio di fine 2025, il confine tra ciò che è reale e ciò che è generato dall’intelligenza artificiale non è mai stato così sottile. Tra gli auguri su WhatsApp e il feed infinito dei social, ci troviamo immersi nell’era della post-verità 2.0, dove un video non è più una prova e un’immagine può essere un miraggio algoritmico.

Dalle recenti elezioni internazionali, segnate da scandali mediatici sintetici, ai conflitti globali raccontati attraverso pixel manipolati, la verifica delle fonti è diventata la competenza civile più importante del nostro tempo. Ma come possiamo difenderci in questo mare di incertezza senza annegare nella disinformazione?

Per capire la portata del rischio, basta guardare a quanto accaduto durante le elezioni presidenziali in Irlanda lo scorso ottobre. Un video della candidata Catherine Connolly ha fatto il giro del web: con voce rotta dall’emozione, annunciava il ritiro per motivi personali. Era un falso perfetto. Il video è rimasto online per sei ore cruciali, totalizzando milioni di visualizzazioni prima che la smentita potesse circolare. Questo episodio ha dimostrato che il pericolo non è solo tecnologico, ma temporale. L’IA colpisce quando la nostra guardia è bassa, come durante un weekend o nei giorni di festa.

Quando si riceve una foto che sembra “troppo incredibile per essere vera”, prima di condividere, bisognerebbe analizzare i dettagli con occhio critico. L’intelligenza artificiale, infatti, è un’ottima artista, ma una pessima fisica. Le ombre: spesso nei deepfake cadono in direzioni opposte o mancano del tutto sotto il mento. Le prospettive: in una foto reale, le linee parallele convergono verso un unico punto di fuga. L’IA spesso sbaglia queste proporzioni geometriche, creando sfondi leggermente distorti. Inoltre, nonostante i progressi di questo 2025, ci sono ancora piccoli “errori di sistema” che tradiscono la macchina.

Mani e gioielli: l’IA fatica ancora con l’anatomia. Bisogna contare le dita e osservare gli orecchini: sono identici? Spesso l’algoritmo genera asimmetrie inspiegabili. Occhi e riflessi: in una foto vera, il riflesso della luce nelle pupille è identico in entrambi gli occhi. In un deepfake, i riflessi sono spesso asimmetrici o assenti, dando allo sguardo un aspetto “vitreo”. Ingrandire i cartelli stradali o le etichette degli oggetti sullo sfondo. L’IA genera spesso un “falso testo” che a prima vista sembra leggibile, ma che a un’analisi attenta si rivela essere un insieme di scarabocchi senza senso.

Per i contenuti video, esistono segnali rapidi che si possono controllare direttamente dallo smartphone. L’innaturalezza dello sguardo: osservare se il soggetto sbatte le palpebre in modo regolare. Un battito assente o troppo meccanico è un segnale d’allarme. Il disallineamento labiale (Lip-sync): guardare se le labbra toccano perfettamente tra loro nelle consonanti come B, P o M. Spesso nei deepfake c’è un leggero ritardo o un effetto “eco” visivo. Glitch nei bordi: se il soggetto muove la testa velocemente, si potrebbero vedere dei pixel che “tremano” intorno al mento o ai capelli. La prova del profilo: se sospettiamo di una videochiamata (frequente nelle truffe del “falso nipote”), chiediamo alla persona di mettersi una mano davanti al viso o di girarsi di profilo. Questi movimenti spesso mandano in crash l’algoritmo di sovrapposizione in tempo reale.

Per smascherare i fake esistono anche strumenti come la ricerca inversa delle immagini di Google o portali di fact-checking come Facta.news che lavorano h24. In un mondo dove vedere non è più automaticamente credere, la nostra risorsa più preziosa rimane, dunque, lo spirito critico prima di cliccare su “condividi”.

Lascia un commento