DEEP FAKE: VEDERE, DUBITARE, VERIFICARE
VULNERABILITÀ E RISCHI DELLE DEEPFAKE
Ad alimentare l’elenco crescente delle vulnerabilità digitali e dei blind spot dei rischi interni nelle Organizzazioni, è certamente anche la rapida crescita dei cosiddetti Deepfake che – pur non costituendo ancora un vero e proprio trend – rappresentano certamente una area di criticità tutt’altro che da sottovalutare e della quale si è occupato anche il Garante per la Protezione dei Dati Personali
Si tratta sicuramente di una delle forme più distorte e perfide dell’utilizzo dell’Intelligenza Artificiale (Artificial Intelligence – AI) che consente di generare audio o video di persone che dicono o compiono azioni che non hanno mai detto o fatto ingannando spettatori, ascoltatori e sistemi tecnologici.
Con gli attacchi BIC (Business Identity Compromise) – minaccia reale sia nel settore pubblico che in ambito privato – i malintenzionati creano personaggi e/o voci artificiali, anche impersonando collaboratori noti, e li distribuiscono attraverso una delle forme di media sintetici per causare il massimo danno al loro obiettivo, spesso combinandosi con un attacco BEC (Business Email Compromise) o propagandosi attraverso canali di social network.
TIPOLOGIE DEEP FAKE
Ecco di seguito alcune sintetiche considerazioni sulle 4 tipologie di Deepfake ad oggi più utilizzate dai criminali informatici:
Video Deepfake: vengono creati utilizzando l’Intelligenza Artificiale, l’Apprendimento Automatico e i Software di Scambio di Volti. Questi video generati dal computer combinano le immagini per creare nuove riprese video che ritraggono persone, riproducono dichiarazioni e/o eventi mai realmente accaduti.
Audio Deepfake: è un tipo di intelligenza artificiale che produce un parlato iper realistico generato sinteticamente. Utilizzato soprattutto in combinazione con Video Deepfake, si sta affermando anche in modalità autonoma in quanto più complesso da rilevare rispetto il Video Deepfake.
Deepfake testuale: la combinazione dell’Intelligenza Artificiale con l’elaborazione del linguaggio naturale (Natural language processing – NLP) sono la base per un futuro nel quale le macchine potrebbero scrivere come un essere umano. Le solide librerie di modelli linguistici sono cresciute nel corso degli anni e le macchine ora possono generare comunicazioni testuali che rispecchiano quelle di un essere umano. I deepfake testuali aiutano in modo significativo la produzione di “notizie false”, la disinformazione e la rappresentazione di personaggi fittizi online che diffondono propaganda.
Deepfake sui social media: i media sintetici possono essere generati in vari modi. La più popolare di queste tecniche implementate sui social media sono le immagini del profilo sviluppate tramite le reti generative contraddittorio/avversarie (Generative Adversarial Network GAN) con le quali vengono creati Account non reali apparentemente collegati a personalità o enti di rilievo o mirati per l’obiettivo che si intende raggiungere.
L’IMPORTANZA DELLA CONSAPEVOLEZZA
Mentre scienza e tecnologia (in particolare Intelligenza Artificiale) continuano a sviluppare difese per rilevare l’influenza dei deepfake, gli operatori e gli utilizzatori dei servizi devono sviluppare una capacità di iper-osservazione nei confronti dei media digitali che vengono loro proposti nella quotidianità.
Gli indicatori base per identificare un Deepfake – o quanto meno far scattare un Fact Checking – includono:
• Sfocatura dell’immagine
• Tonalità della pelle instabile
• Sezioni/Aree del contenuto Video (nel campo di ripresa) con qualità inferiore
• Lineamenti del viso non lineari (effetto mosaico)
• Movimenti innaturali e/o non fluidi
• Cambiamenti/instabilità dello sfondo e/o dell’illuminazione
• Frasi instabili con flusso verbale/inflessione variabile nel discorso
• Naturalezza movimento occhi
• In caso di Remote Meeting, verificare l’identità dell’interlocutore, ad esempio chiedendo di effettuare dei movimenti (in particolare di assumere una posizione di profilo)
Nel breve-medio periodo, la consapevolezza e l’informazione sono quindi i pilastri fondamentali del sistema di difesa da una minaccia che per molti è ancora sconosciuta e quindi rappresenta potenzialmente un accesso privilegiato per i criminali informatici e per la disinformazione.