Home / Macroambiente / Su YouTube c’è chi usa l’AI generativa per bombardare i bambini di fake news scientifiche

Su YouTube c'è chi usa l'AI generativa per bombardare i bambini di fake news scientifiche

youtube policy

La BBC ha individuato cinquanta canali per bambini, in venti lingue diverse, che condividono su YouTube video manipolati tramite l'uso di sistemi come ChatGPT e Midjourney e veicolano disinformazione su temi scientifici.

Il rischio che si utilizzi l’AI generativa per campagne di disinformazione indirizzate ai bambini è più che concreto, come sottolinea la BBC.

Un gruppo di giornalisti investigativi della testata ha individuato, infatti, almeno cinquanta canali YouTube che condividono contenuti manipolati su argomenti scientifici realizzati tramite sistemi come ChatGPT, Midjourney, ecc. e che, una volta finiti nel flusso di video pubblicati ogni giorno sulla piattaforma, vengono intercettati soprattutto da un pubblico di giovanissimi.

I video manipolati che su YouTube diffondono bufale, complottismo e negazionismo scientifico

Con l’aiuto di un insegnante di scienze che nel tempo libero si dedica alla divulgazione tramite il proprio canale YouTube, la BBC ha analizzato i finti video scientifici indirizzati ai bambini alla ricerca di pattern ricorrenti.

È arrivata in questo modo alla conclusione che nella maggior parte dei casi si tratta di video che riprendono posizioni pseudoscientifiche (come quelle su UFO e alieni) e negazioniste (soprattutto sul cambiamento climatico) e teorie del complotto (tra cui quella secondo cui la Piramide di Giza fosse stata progettata per produrre energia elettrica). Quasi sempre questi hanno titoli accattivanti, immagini coinvolgenti che colpiscono gli spettatori e un commento parlato o delle didascalie sensazionaliste. Sono soprattutto video taggati come “contenuti educativi”, cosa che rende più probabile che raggiungano un pubblico di bambini e adolescenti che frequentano YouTube.

I video scientifici manipolati individuati dalla BBC sarebbero disponibili in almeno venti lingue diverse, dallo spagnolo all’arabo passando per il thai, pubblicati da canali che condividono un gran numero di contenuti ogni giorno.

Così si sta utilizzando l’AI generativa per campagne di disinformazione indirizzate ai bambini

Sono bastati gli elementi appena elencati per convincere il gruppo di lavoro della BBC, che in genere si occupa di analizzare fake news e notizie manipolate, di essere davanti a un caso di uso sistemico dell’AI generativa per campagne di disinformazione.

Per confermare la propria tesi, però, i giornalisti inglesi hanno fatto analizzare i video in questione, oltre che da alcuni esperti, da tool di AI detection e cioè tool in grado di individuare se un testo, un’immagine o una breve sequenza di immagini, un video siano stati ottenuti utilizzando sistemi basati sull’intelligenza artificiale come ChatGPT, Midjourney e simili.

Da questa prova è risultato che la maggior parte dei video scientifici manipolati è stata ottenuta attingendo ad altri siti, canali YouTube, forum che pubblicano contenuti verificati e di qualità sugli argomenti in questione e in un secondo momento modificati tramite l’uso di AI generativa.

Il plagio tramite l’intelligenza artificiale, come altri studi hanno confermato, sta diventando del resto sempre più comune e, praticato com’è da content farm e siti che monetizzano dalla pubblicazione a raffica di un gran numero di contenuti, non risparmia neanche le grandi testate giornalistiche internazionali.

Anche per i canali YouTube individuati dalla BBC lo scopo principale di pubblicare video scientifici manipolati sembra essere monetizzare, tanto più che andandone ad analizzare le principali vanity metrics si scopre che si tratta quasi sempre di canali con milioni di iscritti e che fanno a ogni video milioni di visualizzazioni. Mantenere attaccati allo schermo quanti più spettatori possibile, insomma, è per questi canali un’opportunità per guadagnare di più attraverso il sistema di remunerazione e dividendi pubblicitari di YouTube.

Farlo è più facile se si può contare su contenuti che sembrano veri ma che non lo sono e che, in più, giocano sulla fascinazione che ha per tutti, adulti e bambini, l’idea di scoprire cose che non tutti sanno o di essere messi al corrente di presunte vere versioni dei fatti che qualcuno non vuole si conoscano.

Perché i contenuti manipolati con l’intelligenza artificiale rivolti ai bambini rischiano di essere molto pericolosi

I più piccoli avrebbero rispetto agli adulti, secondo un esperto di educazione primaria1 che ha commentato l’indagine della BBC e i suoi risultati, meno strumenti critici per distinguere ciò che è vero da ciò che è palesemente falso o manipolato e sarebbero più esposti a una sorta di “effetto framing ” che li porterebbe a credere più facilmente alla versione delle cose di cui sono venuti a conoscenza prima.

Ciò spiega perché i rischi associati all’utilizzo dell’AI generativa per campagne di disinformazione indirizzate ai bambini sono notevoli e destano allarme più di quanto facciano i più generici rischi legati all’uso dell’intelligenza artificiale nel giornalismo (a tal proposito, già nei mesi scorsi, NewsGuard ha segnalato che le fake news sono triplicate da quando si utilizzano sistemi come ChatGPT e simili).

Il gruppo di lavoro della BBC ha provato a indagare empiricamente anche su questo aspetto, ossia su cosa succede quando i bambini sono esposti a video manipolati dall’AI contenenti bufale, complottismi, negazionismi su argomenti scientifici.

Per farlo sono stati creati dei nuovi account YouTube attribuibili a minori da cui i giornalisti hanno cominciato a guardare video di scienza. Dopo quattro giorni che guardavano video educativi e pubblicati da canali di divulgatori, i giornalisti hanno cominciato ad avere raccomandati automaticamente anche i finti video scientifici, con una sorta di meccanismo “incrementale” tale per cui una volta cliccato su uno e visualizzatolo il numero di video manipolati proposti aumentava in maniera significativa.

Dopo averli guardati, come parte dell’esperimento, i giornalisti hanno condiviso i video in questione con due gruppi di bambini tra i dieci e i dodici anni provenienti da Regno Unito e Thailandia per verificare se e quanto i piccoli spettatori credessero in quanto visto sullo schermo. I risultati sono stati più vari del previsto: quasi tutti riconoscevano come falsi i video su alieni e UFO; nel caso dei video sulla produzione di energia elettrica all’interno della Piramide di Giza, invece, i più si lasciavano convincere nonostante una certa diffidenza iniziale e solo pochi riconoscevano l’utilizzo dell’intelligenza artificiale. In ogni caso, quando veniva rivelato ai bambini che si trattava di video realizzati con l’intelligenza artificiale, le reazioni prevalenti erano quelle di shock e confusione.

YouTube guadagna dai video scientifici manipolati?

Se quanto visto fin qua non bastasse a creare allerta sull’uso dell’AI per campagne di disinformazione rivolte ai bambini, sottolineano dalla BBC, c’è da considerare che il sistema di raccolta pubblicitaria della piattaforma è tale che la stessa guadagni – fino al 40% degli introiti in adv – anche da video come i video scientifici manipolati.

Non è la prima volta che YouTube viene rimproverato di un certo lassismo nei confronti di canali che sistematicamente diffondono bufale e notizie manipolate ma che sono, appunto, canali con molto seguito e che rendono bene da un punto di vista pubblicitario.

Qualche anno fa solo la fuga degli inserzionisti, spaventati di vedere il proprio brand associato a teorie cospirazioniste, negazioniste e complottiste e in breve per la propria brand safety, convinse YouTube a cambiare in parte i criteri di monetizzazione.

Chiamati a rispondere ora sulla questione dei canali che sfruttano contenuti creati con l’AI generativa per campagne di disinformazione indirizzate ai bambini, i portavoce della piattaforma sembrano aver declinato qualsiasi commento.

Note
  1. BBC

© RIPRODUZIONE RISERVATA È vietata la ripubblicazione integrale dei contenuti

Resta aggiornato!

Iscriviti gratuitamente per essere informato su notizie e offerte esclusive su corsi, eventi, libri e strumenti di marketing.

loading
MOSTRA ALTRI