Home / Macroambiente / Proteggere i bambini su YouTube: stretta su video violenti, che istigano al suicidio o sono covo di pedofili

Proteggere i bambini su YouTube: stretta su video violenti, che istigano al suicidio o sono covo di pedofili

Proteggere i bambini su YouTube: le policy

Per proteggere i bambini su YouTube e a seguito di alcuni fatti di cronaca, la piattaforma ha pensato a policy per i contenuti più controversi.

Se la responsabilità giuridica delle piattaforme è materia irrisolta e franosa, in più di un’occasione i big del digitale sono intervenuti in prima persona richiamando al rispetto e aggiornando linee guida e standard della community o cancellando contenuti controversi e che rischiavano di rendere invivibile il proprio stesso ecosistema. Da inizio 2019, per esempio, numerose sono state le azioni intraprese da Mountain View per proteggere i bambini su YouTube e, più in generare, assicurare agli utenti un’esperienza gradevole.

Senza che fosse una novità, infatti, attivisti, inchieste, studi e ricerche hanno mostrato la presenza di contenuti controversi o violanti gli standard di comunità.

Come proteggere i bambini su Youtube dalle challenge (anche se fake)

Come i presunti video che, con trucchi più o meno velati, spingevano i più piccoli a partecipare alla Momo Challenge. Presto riconosciuta come bufala, è una sfida simile alla Blue Whale i cui partecipanti riceverebbero da un ignoto contatto WhatsApp dall’inquietante immagine del profilo un set di prove da superare che spesso consistono in azioni violente o potenzialmente pericolose. Nonostante si sia diffusa soprattutto sui servizi di messaggistica istantanea, qualcuno avrebbe denunciato la presenza su YouTube di un finto episodio di Peppa Pig in cui, dopo una rassicurante introduzione con protagonista la maialina antropomorfa tanto amata dai bambini, compare la strega dagli occhi pronunciati della Momo Challenge e lancia messaggi poco subliminali legati alla sfida. Dalla piattaforma sembrerebbero aver escluso la presenza di qualsiasi video di questo tipo; non sarebbe la prima volta del resto che un certo panico sociale contribuirebbe a rendere virali notizie prive di fondamento. Tanto più che, proprio in riposta a un caso di cronaca simile, non molto tempo fa YouTube ha vietato le challenge e i video che se ne fanno forieri.

La rete pedofila che agiva attraverso commenti ai video di bambini su Youtube

Proteggere i bambini su YouTube nelle ultime settimane ha significato, però, anche scovare una rete di pedofili che si muoveva indisturbata tra i commenti a video che mostravano bambini – e soprattutto bambine – impegnati in attività quotidiane come ballare, giocare a Twister, andare sulle giostre. Come racconta Wired UK, si trattava di video molto popolari, con milioni di visualizzazioni, e che nella maggior parte dei casi erano monetizzati grazie al pre-roll di pubblicità di marchi anche ben noti come Alfa Romeo, Maybelline, L’Oreal, Fortnite. Erano i commenti, però, a mostrare attività sospette: non solo complimenti inappropriati nei confronti dei minori, che in alcuni casi avevano evidentemente meno di cinque anni, in molti casi gli utenti segnalavano il minutaggio in cui, stoppando il video, si vedevano chiaramente i genitali dei bambini o in cui gli stessi erano immortalati in pose ed espressioni involontariamente provocanti; qualche volta nel thread di commenti erano lasciati link a video più espliciti e, nei casi più gravi, gli utenti si scambiavano numeri di telefono e mail con la promessa di condividere altro materiale pedo-pornografico. Come ha suggerito per primo Matt Watson su Reddit, il proliferare incontrollato di commenti simili aveva creato una sorta di bug nell’algoritmo di ricerca per cui bastava digitare «girl yoga» perché il completamento automatico suggerisse di terminare la stringa con opzioni come «young» o «hot».

Una débacle di casa Google? Il fatto che la maggior parte dei commenti soft-core fosse in spagnolo, russo o portoghese ha portato molti addetti ai lavori a ipotizzare che a permette alla rete di pedofili di agire indisturbata sia stata l’incapacità del sistema di YouTube, che riconosce commenti e contenuti offensivi e inappropriati, di funzionare bene con linguaggi diversi dall’inglese. Vista la visibilità acquisita dalla faccenda e per assicurarsi la totale sicurezza dei minori su YouTube, la piattaforma comunque, dopo aver rimosso milioni di commenti e chiuso almeno 400 canali, sembra aver disabilitato momentaneamente i commenti ai video che hanno per protagonisti i bambini.

Un problema di brand safety: se Youtube ferma la monetizzazione di video con minori

In più sembra aver fermato, al momento, anche la monetizzazione di video come questi. Con ogni probabilità si tratta di una misura dettata dalla reazione dei brand : secondo numerose voci, infatti, Nestlé, Disney, McDonald’s, Hasbro, solo per fare degli esempi, avrebbero deciso di sospendere il pre-roll dei propri annunci su YouTube proprio in seguito alla scoperta delle rete pedofila, con ogni probabilità perché brand che si rivolgono anche – se non primariamente – a un pubblico di genitori e bambini. Non sarebbe la prima volta, del resto, che problemi di brand safety tengono lontane le aziende dall’investire in pubblicità su YouTube.

Secondo Digiday, anzi, proprio in forma di tutela della propria immagine, dei propri valori aziendali i brand starebbero acquistando spazi pubblicitari direttamente da produttori di contenuti premium su YouTube, anche se questo innalza inevitabilmente i costi della YouTube advertising.

Violenza, sparatorie, suicidio: quei video poco kid-friendly nella versione per bambini di Youtube

Pedofilia e rischio di adescamento, però, non sembrerebbero gli unici pericoli da cui proteggere i bambini su YouTube. Alcuni genitori hanno denunciato come sulla piattaforma sia oltremodo facile imbattersi in contenuti violenti e che inneggiano al suicidio.

Come racconta BuzzFeed, per esempio, dei troll avrebbero caricato su YouTube Kids (la versione per bambini della piattaforma, che promette un maggiore controllo sui video per assicurare un’esperienza perfetta e confortevole anche ai più piccoli, ndr) delle clip non originali del cartone “Splatoon in cui Filthy Frank, uno youtuber a sua volta molto seguito, spiegherebbe la differenza tra il tagliarsi i polsi in orizzontale e il farlo in verticale. Senza ombra di dubbio si tratta di un fake, realizzato con l’uso di tecniche come il green screen, e andrebbe considerato comunque – come ci tiene a sottolineare il performer – che Filthy Frank è un personaggio d’invenzione, sempre sui generis e con stile di comunicazione borderline che usa per sottolineare cosa si dovrebbe non fare, come si dovrebbe non essere, tanto che si parli di suicidio e quanto che in gioco ci sia l’essere fan degli OneDirection. Certamente legittimi sono, però, i dubbi che un bambino non sappia riconoscere un vero da un fake o capire a pieno il senso della satira. I video in questione sarebbero presto stati cancellati dopo le segnalazioni, ma non sono gli unici a tema suicidio. Una mamma pediatra avrebbe segnalato ancora a BuzzFeed una serie di contenuti facili da trovare su YouTube Kids in cui si vedono bambini salvati quasi in extremis dai genitori da tentativi di suicidio o personaggi che chiedono di essere lasciati morire con una leggerezza che non si addice, certo, né al tema né al target in questione.

proteggere i bambini su Youtube video suicidio

“Doki! Doki! Rainclouds New End!!!” è uno dei video su YouTube Kids che, come segnalato a BuzzFeed, parla in maniera inappropriata di suicidio: uno dei protagonisti si chiede, infatti, perché semplicemente il mondo non lo lasci morire.

Altre segnalazioni, invece, hanno cercato di proteggere i bambini su YouTube da contenuti violenti che mostrano sparatorie nelle scuole e abusi nei confronti dei caratteri femminili.

proteggere i bambini su Youtube video sparatorie a scuola

Una scena di “Monster School: SLENDERMAN HORROR GAME” mostra chiaramente una sparatoria che avviene all’interno delle mura scolastiche.

proteggere i bambini su Youtube video abusi sulle donne

Nel cartone “Smoke in Mirrors” diverse scene mostrano violenze e abusi nei confronti dei personaggi femminili: qui uno di loro è mostrato legato a una sedia e minacciato con un coltello.

Va precisato che, nella maggior parte dei casi, si tratta di video originariamente pubblicati su YouTube e destinati, forse, a un pubblico di adulti e con maggiori capacità critiche. Perché e come siano finiti nella versione per bambini di YouTube, dove i contenuti dovrebbero essere filtrati con estrema accuratezza, è la domanda che genitori e attivisti rivolgono alla piattaforma. La paura sembra essere, come in molti casi simili, un eventuale effetto imitazione, giustificato tra l’altro, nel primo caso e in un contesto come quello americano, dalla frequenza di casi reali di sparatorie nelle scuole.

Proteggere i bambini su Youtube: il sistema di segnalazioni, penalizzazioni, ammonizioni

Ancora una volta dal canto suo YouTube è intervenuto ex post cancellando i video in questione o rendendoli non disponibili per la versione Kids dell’applicazione. Tra le misure per assicurare la sicurezza dei più piccoli sulla piattaforma, del resto, oltre a implementare ulteriormente algoritmi e AI, che dovrebbero permettere di identificare in anticipo contenuti sospetti o malevoli, YouTube punta ancora e soprattutto sulle segnalazioni da parte degli utenti di contenuti e canali inappropriati e irrispettosi degli standard di comunità. A cambiare potrebbe essere il sistema di penalizzazione di questi stessi contenuti malevoli: un’ammonizione – o, meglio, uno «strike» in gergo – dovrebbe impedire al canale di pubblicare o trasmettere in streaming qualsiasi tipo di contenuto per un certo periodo di tempo e dopo tre ammonizioni consecutive si rischiano chiusura e ban definitivi.

Stop alla monetizzazione anche per i video no vax su Youtube

Proteggere i bambini su YouTube, comunque, non sembra essere l’unico fine di iniziative come queste. Penalizzare contenuti sospetti o togliere loro la possibilità di monetizzazione sembrano essere le azioni scelte dalla piattaforma anche per combattere video controversi come quelli a favore delle teorie no vax.

Le posizioni no vax, infatti, come chiarito da YouTube, vanno contro linee guida e standard della comunità che vietano qualsiasi contenuto «pericoloso e dannoso» per gli utenti e, per questo, i video che se ne fanno portavoce non possono contenere pubblicità. Tanto più che alcuni brand del settore farmaceutico e della salute, ancora una volta, avevano sospeso gli investimenti in YouTube Adv proprio per paura che i propri messaggi fossero impropriamente associati a contenuti no vax. A confermare la decisione della piattaforma è stato, tra l’altro, il fatto che alcuni utenti e alcune testate giornalistiche avessero segnalato come digitando stringhe del tipo «i vaccini sono sicuri?», correlati a video di fonti ufficiali e accreditate erano suggeriti video no vax poco validi scientificamente. Impedire la monetizzazione non è comunque l’unica misura di tutela adottata da YouTube in questo caso: nei video no vax che non sono stati cancellati perché rispettosi delle policy della piattaforma, infatti, compare ora un pannello informativo che rimanda direttamente alla voce di Wikipedia sulle controversie riguardo ai vaccini, in modo che l’utente possa informarsi da sé e trovare maggiori risposte e più scientifiche (l’opzione è valida, però, ancora solo per i paesi anglofoni).

Youtube è un covo terrapiattista? E la piattaforma che fa?

Poco chiaro è, invece, quello che YoTube farà nel caso di video e contenuti legati alle teorie terrapiattiste. Secondo uno studio della Texas Tech University citato dalla BBC, infatti, se si è sempre più diffusa l’idea che la terra sia piatta la colpa è (anche) di YouTube. Intervistata ai convegni, la maggior parte dei terrapiattisti cita infatti dei video visti su YouTube come base principale, se non unica, delle proprie convinzioni. Ancora una volta il maggiore sospettato è il meccanismo che sta dietro ai video correlati e ai suggerimenti offerti della piattaforma: per semplificare, infatti, lo studio sottolinea come sia facile, una volta visto il primo video che espone l’ipotesi terrapiattista, finire nella tana del coniglio e ricevere come suggeriti solo contenuti simili. Come tutte le volte in cui si finisce in una bolla filtrata o in una echo chamber, il rischio disinformazione – o, meglio, misinformazione – è dietro l’angolo. A rigore, comunque, non essendo pericolosi per l’incolumità degli utenti, i contenuti terrapiattisti non sembrano violare gli standard di comunità di YouTube, per questo potrebbe essere difficile per la piattaforma prendere posizione e prevedere misure ad hoc in questo caso, come è avvenuto invece, si è visto, tutte le volte che si è trattato di proteggere i bambini su YouTube.

Altre notizie su:

© RIPRODUZIONE RISERVATA È vietata la ripubblicazione integrale dei contenuti

Resta aggiornato!

Iscriviti gratuitamente per essere informato su notizie e offerte esclusive su corsi, eventi, libri e strumenti di marketing.

loading
MOSTRA ALTRI