Questo articolo è stato pubblicato da questo sito
Questo articolo ha ricevuto il supporto di Investigative journalism for Europe
“Non c’è bisogno di morire in questa guerra. Vi consiglio di vivere,” intimava la voce seria del presidente dell’Ucraina Volodymyr Zelensky in uno dei video diventato virale a marzo 2022, poco dopo l’invasione della Russia, seguito da un altro del presidente russo Vladimir Putin, che parlava di una resa pacifica. Pur essendo di bassa qualità, i filmati sono riusciti a diffondersi velocemente, creando confusione e con l’obiettivo finale di trasmettere una narrazione distorta.
Nell’universo digitale, dove i confini tra realtà e finzione sono sempre più labili, è emerso un ulteriore mezzo che mette in discussione la realtà proiettata sui nostri schermi: i deepfake. Si tratta di montaggi iperrealistici che imitano l’aspetto o la voce di una persona. Dall’inizio della guerra tra Russia e Ucraina, il loro uso è stato un’arma di conflitto, infiltrandosi in ogni angolo dei social network. Nonostante le reazioni quasi immediate e il debunking che ne è seguito, la loro circolazione è stata più efficace in determinati casi.
La corsa dei deepfake
“Siamo creature molto visive, ciò che vediamo influenza ciò che pensiamo, percepiamo e crediamo – sostiene Victor Madeira, giornalista ed esperto di controspionaggio russo e disinformazione -. I deepfake rappresentano solo l’ultima arma progettata per confondere, sopraffare e, alla fine, paralizzare la presa di decisioni occidentale e la nostra volontà di reagire”. Mentre l’obiettivo è minare la fiducia nell’informazione, nei media e nella democrazia, il potere derivante da questa manipolazione attrae le piattaforme online. Sebbene queste ultime non siano legalmente obbligate a monitorare, individuare e rimuovere i deepfake dannosi, è nel loro interesse adottare politiche proattive per implementare tali strumenti e dare priorità alla protezione degli utenti.
Tuttavia, non sempre le necessità coincidono con gli interessi. “In quanto aziende, sono impegnate in una massiccia competizione per espandersi verso nuovi mercati, anche quando non hanno l’infrastruttura necessaria per proteggere effettivamente gli utenti”, sostiene Luca Nicotra, campaign director di Avaaz, ong specializzata nell’indagine della disinformazione online. Guadagnare con questo tipo di disinformazione, ricevendo feedback positivi, diventa dunque più vantaggioso, piuttosto che creare gli strumenti per impedirne la diffusione e salvaguardare gli utenti. E aggiunge: “Qualunque cosa accada con Facebook, Telegram, Instagram e altre piattaforme, è necessaria una revisione finale da parte di personale addestrato, ma questo comporta dei costi”.
Creare un deepfake
Gli sviluppi dell’intelligenza artificiale generativa hanno sollevato preoccupazioni sulla capacità della tecnologia di creare e diffondere disinformazione su una scala senza precedenti. “Si arriva a un punto in cui diventa molto difficile per le persone capire se l’immagine ricevuta sul loro telefono è autentica o meno“, sostiene Cristian Vaccari, professore di comunicazione politica presso la Loughborough University ed esperto in disinformazione. I contenuti prodotti inizialmente con pochi e semplici mezzi possono sembrare di scarsa qualità, ma, attraverso modifiche necessarie, possono diventare credibili. Un esempio recente coinvolge la presunta critica della moglie del presidente americano Joe Biden riguardo alla gestione della crisi in Medio Oriente.