Home / Macroambiente / I deepfake e i pericoli della disinformazione nell’era dell’intelligenza artificiale: alcuni esempi

I deepfake e i pericoli della disinformazione nell'era dell'intelligenza artificiale: alcuni esempi

Deepfake e disinformazione este

In che modo l'intelligenza artificiale può contribuire alla creazione di fake news? Dall'uso di ChatGPT alla creazione di deepfake, non mancano esempi che mostrano come questa tecnologia alimenti la disinformazione.

Con il veloce sviluppo dell’intelligenza artificiale negli ultimi anni molti esperti richiamano l’attenzione sui pericoli dell’uso di questa tecnologia da parte di soggetti malintenzionati: non mancano in particolare le preoccupazioni riguardo alla proliferazione dei deepfake che potrebbero essere sfruttati per promuovere disinformazione su un determinato tema. Quali sono le principali preoccupazioni a riguardo e come affrontare questo problema?

L’intelligenza artificiale può diventare uno strumento per creare e diffondere fake news?

Tra gli hot topic degli ultimi mesi a livello globale c’è ChatGPT, un chatbot basato sull’AI, pensato per simulare conversazioni con un linguaggio naturale, simile a quello umano. Questo strumento riesce a fornire risposte pertinenti su ogni tema e per questo è stato sfruttato per diversi obiettivi. È possibile, però, che questa tecnologia possa trarre in inganno chi la usa per cercare informazioni su persone o argomenti specifici.

Un giornalista di The Guardian è stato contattato a causa di un articolo che sarebbe stato scritto da lui diversi anni prima1: dopo aver controllato l’archivio del giornale per trovare l’articolo in questione si è scoperto che l’articolo in realtà non esiste e che il contenuto è stato generato da ChatGPT in risposta a una domanda sul tema in questione. È interessante sottolineare che secondo il giornalista il titolo dell’articolo risultava perfettamente in linea con la tipologia di contenuto solitamente pubblicato dalla testata e che l’esistenza dell’articolo sembrava perfettamente credibile. Questo esempio mostra come questa tecnologia possa favorire l’accesso a contenuti fasulli o comunque poco accurati.

Purtroppo diversi sono già i casi di diffamazione tramite ChatGPT, ossia situazioni in cui contenuti lesivi dell’immagine e della reputazione di varie persone sono stati generati automaticamente dal chatbot.

Esperti nel campo dell’AI sottolineano anche che sistemi come ChatGPT potrebbero essere usati per «creare dissenso e per diffondere propaganda sui social media», come è possibile leggere in un articolo della BBC pubblicato a febbraio2.

Le problematiche legate alla disinformazione, però, non riguarderebbero solo il famoso chatbot: una ricerca condotta dall’organizzazione NewsGuard ha identificato, solo nel mese di aprile, 49 siti, in sette lingue diverse, che avevano le sembianze di siti di notizie, ma in realtà corrispondevano a siti generati da chatbot basati sull’AI3. Questi ultimi producono un gran numero di notizie al giorno, su svariati argomenti, diffondendo in alcuni casi delle narrazioni che non corrispondono alla realtà.

Il fenomeno dei deepfake: alcuni esempi di come possono diffondere disinformazione

Riguardo ai sistemi di AI risulta ormai difficile non considerare i deepfake. Negli ultimi anni sono proliferati sul web immagini e video sempre più realistici ma generati dall’intelligenza artificiale. Grazie alla tecnica del deep learning è attualmente possibile ricreare eventi mai accaduti e discorsi mai pronunciati in modo sempre più facile e accessibile. Per questa ragione i deepfake potrebbero presentarsi come la soluzione perfetta, nelle mani sbagliate, per diffondere fake news su qualsiasi persona o organizzazione.

Gli esempi in questo caso sono tanti. Molti riguardano l’uso dell’immagine del volto di celebrità per creare contenuti pornografici che non sono mai stati girati dai presunti protagonisti dei video. Non raramente vengono presi di mira anche i politici che diventano protagonisti di eventi mai accaduti realmente: ne è un esempio una foto dell’ex presidente statunitense Donald Trump mentre veniva arrestato. Questa è stata creata a marzo 2023 da Eliot Higgins, fondatore della piattaforma di giornalismo investigativo Bellingcat, sfruttando Midjourney, un altro sistema basato sull’AI in grado di generare immagini inedite a partire da descrizioni testuali.

Il deepfake in questione, che è nato come un semplice scherzo, è diventato virale nell’arco di pochi giorni, dimostrando il potenziale di questi contenuti per generare confusione e diffondere notizie false in maniera semplice e veloce.

Questi strumenti possono così essere usati per manipolare l’opinione pubblica: come è possibile leggere in un articolo pubblicato il 2 marzo 2023 da The Washington Post, sono stati recentemente diffusi in Venezuela deepfake come parte di una campagna di disinformazione a favore del governo socialista del presidente Nicolás Maduro. Nei due video citati vengono riportate fake news sul Paese da parte di due giornalisti che in realtà non esistono e che sono stati generati dall’AI.

Alcuni consigli per riconoscere i deepfake

I pericoli associati alla creazione e diffusione di deepfake sono tanti. Con particolare riferimento al problema della disinformazione, da diversi anni gli esperti si chiedono come affrontare questa sfida. Non a caso già nel 2019 il governo statunitense ha coinvolto i principali enti di ricerca nazionali per combattere i deepfake4, sviluppando sistemi in grado di riconoscerli.

Nonostante questi video e foto risultino sempre più realistici, ci sono alcuni indizi che spesso permettono di distinguere un deepfake da un contenuto reale. A tal proposito sul sito ExpressVPN è possibile trovare alcuni consigli per riconoscere video deepfake.

Agli utenti viene suggerito, tra le altre cose, di prestare attenzioni a eventuali distorsioni e trasformazioni facciali, ai movimenti degli occhi e delle labbra e a tutti i gesti compiuti dai protagonisti dei video che potrebbero risultare strani o poco naturali. Potrebbe essere utile inoltre cercare di verificare il contenuto del video per capire se l’evento ripreso è successo realmente o se si tratta di una situazione improbabile che non è stata confermata da alcuna fonte attendibile.

Con il continuo perfezionamento dell’intelligenza artificiale, i deepfake tenderanno a diventare sempre più difficili da riconoscere: per questa ragione è importante rimanere aggiornati sugli ultimi progressi del settore, cercando di verificare sempre la veridicità e l’accuratezza dei contenuti prima di condividerli.

Note
  1. The Guardian
  2. BBC
  3. NewsGuard
  4. CNN

© RIPRODUZIONE RISERVATA È vietata la ripubblicazione integrale dei contenuti

Resta aggiornato!

Iscriviti gratuitamente per essere informato su notizie e offerte esclusive su corsi, eventi, libri e strumenti di marketing.

loading
MOSTRA ALTRI