Home / Macroambiente / I bias e gli stereotipi nei generatori di immagini prodotte con l’AI: alcune ricerche fanno luce sul tema

I bias e gli stereotipi nei generatori di immagini prodotte con l'AI: alcune ricerche fanno luce sul tema

Pregiudizi e bias nelle immagini generate dall'intelligenza artificiale vpn mentor
Fonte: vpn Mentor

I generatori di immagini basati sull'AI riescono a convertire descrizioni testuali in immagini di diverso tipo in pochi secondi, ma questi tool possono anche contribuire a rafforzare stereotipi basati su genere e etnia.

Ascolta la versione audio dell'articolo
I bias e gli stereotipi nei generatori di immagini prodotte con l'AI: alcune ricerche fanno luce sul tema
/ 00:00

Con i più recenti sviluppi dell’intelligenza artificiale sono aumentati i tool che, in modo automatico, consentono di creare immagini partendo da descrizioni testuali. Questi strumenti sono sempre più sofisticati e accessibili al grande pubblico e permettono agli utenti di ottenere immagini di diverso tipo. Nonostante le infinite possibilità di utilizzo, molti esperti hanno segnalato la presenza di bias nei generatori di immagini basati sull’AI: in particolare, è possibile spesso notare come le immagini prodotte veicolino delle rappresentazioni sessiste o razziste di persone o determinati gruppi di persone.

Di fronte alla crescente popolarità di questi strumenti è necessario che gli utenti siano consapevoli dei pericoli legati ai sistemi basati sull’intelligenza artificiale, che potrebbero in alcuni casi rafforzare stereotipi esistenti nella società.

La presenza di bias nei generatori di immagini basati sull’inteligenza artificiale: due ricerche sul tema

Complessi algoritmi di intelligenza artificiale attualmente esistenti possono essere sfruttati in ambiti diversi e con diverse applicazioni. Proprio perché sono sviluppati da esseri umani, i modelli sviluppati spesso presentano gli stessi bias di chi li crea e di chi con loro interagisce.

Per cercare di comprendere il problema, Vpn Mentor ha deciso di analizzare immagini generate da quattro tra i più popolari strumenti disponibili online1: Dream by Wombo, Nightcafe, Midjourney e DALL-E 2. La ricerca in questione è stata pubblicata a marzo 2023 sul sito di Vpn Mentor.

Nello stesso mese anche su MIT Technology Review è stato pubblicato un articolo sul problema dei bias dell’AI, con riferimento a un’analisi condotta da alcuni ricercatori della startup Hugging Face e dell’Università di Leipzig, in Germania. Il gruppo in questione ha provato ad analizzare i bias presenti all’interno di DALL-E 2 e in due recenti versioni di Stable Diffusion, un altro noto strumento per generare immagini partendo da descrizioni testuali.

Le due ricerche hanno dimostrato che il problema in questione non può essere ignorato: infatti, i diversi strumenti presi in analisi hanno generato un numero considerevole di immagini che rafforzano determinati pregiudizi legati a caratteristiche come genere o l’etnia degli individui.

Secondo quanto riportato da Aylin Caliskan, assistant professor presso l’Università di Washington, specializzata in questo argomento, parte del problema ha a che fare con il tipo di dati con cui vengono allenati questi modelli: essi provengono soprattutto dagli Stati Uniti, «il che significa che tendono a riflettere associazioni, bias, valori» e, in senso più ampio, la cultura americana, come si legge nell’articolo pubblicato su MIT Technology Review.

I bias razziali e sessisti legati a titoli o ruoli professionali

Per condurre l’indagine, Vpn Mentor ha selezionato tredici parole chiave (in lingua inglese) rappresentative soprattutto di differenti ruoli professionali o titoli specifici come “giocatore di pallacanestro”, “principessa”, “infermiere”, “professore”, “CEO”, “scienziato”, “parrucchiere” e infine anche “mafia”. Da notare che la maggior parte di queste parole in lingua inglese è usata sia al maschile che al femminile (per esempio “nurse”, “teacher”, “pilot”, “finance worker” “police officer”, ecc.).

Nonostante la maggior parte delle keyword inserite dai ricercatori per la creazione delle immagini non contenesse riferimenti al genere, i pregiudizi associati ad alcune categorie professionali risultano evidenti dai risultati.

Infatti, la parola “nurse” (“infermiere“) è quella che ha reso più evidente il fenomeno dei pregiudizi basati sul genere nei tool basati sull’AI: su un totale di 44 immagini generate dai quattro strumenti analizzati, soltanto tre immagini, tutte create da DALL-E 2, presentavano degli uomini (dunque il 6.8% dei contenuti). Gli altri tool hanno proposto soltanto immagini di donne in corrispondenza della parola “infermiere”, un mestiere ancora spesso legato perlopiù alle donne. Il 90.6% delle immagini generate a partire dall’espressione “giocatore di pallacanestro” presentava uomini, un dato che ricorda come esistano ancora molti stereotipi collegati alla presenza delle donne nel mondo dello sport e soprattutto in alcuni sport.

Immagini generate da DALL-E 2 per giocatore di pallacanestro

Fonte: Vpn Mentor

In riferimento alla parola “CEO“, invece, i tool basati sull’AI hanno proposto 38 immagini di uomini (su un totale di 44), numero che corrisponde all’86.4% dei contenuti che sono stati prodotti. Per il ruolo di poliziotto l’84.4% delle immagini generate rappresentava uomini, mentre per parrucchiere l’84.4% delle immagini corrispondeva a donne.

L’indagine di Vpn Mentor ha rivelato inoltre la presenza di bias di tipo razziale o etnico: per la parola “principessa” l’86.4% delle immagini (38 su 44) corrispondeva a donne bianche, mentre in corrispondenza di “mafia” i risultati hanno restituito solo immagini riconducibili allo stereotipo dell’uomo italiano “mafioso”, come si legge sul sito di Vpn Mentor.

La ricerca condivisa da MIT Technology Review rivela risultati simili per quanto riguarda la tendenza degli algoritmi alla discriminazione basata sia sul genere, sia sulla razza. Infatti, osservando immagini generate da DALL-E 2 e da Stable Diffusion, i ricercatori hanno concluso che i modelli in questione tendevano a generare soprattutto immagini di uomini bianchi in corrispondenza di parole chiave rappresentative di posizioni di spicco, come per esempio “CEO” o “direttore” (in inglese “CEO” e “director”).

Le due ricerche dimostrano come alcuni tool possano contribuire al consolidamento di stereotipi legati a differenti gruppi di persone: in particolare, dalle ricerche condotte è emersa una evidente correlazione tra alcune categorie professionali o ruoli specifici e determinati gruppi etnici o razziali. Indagini di questo tipo permettono di aumentare la consapevolezza del pubblico sugli attuali limiti dell’AI e sulla necessità di perfezionare i generatori automatici di immagini per poter ridurre, e se possibile eliminare, eventuali bias.

Note
  1. Sito di Vpn Mentor

© RIPRODUZIONE RISERVATA È vietata la ripubblicazione integrale dei contenuti

Resta aggiornato!

Iscriviti gratuitamente per essere informato su notizie e offerte esclusive su corsi, eventi, libri e strumenti di marketing.

loading
MOSTRA ALTRI