Home / Macroambiente / Emozioni e intelligenza artificiale: esempi e implicazioni per aziende e consumatori

Emozioni e intelligenza artificiale: esempi e implicazioni per aziende e consumatori

Quali sono i concreti effetti sulla vita di tutti i giorni e per le aziende del connubio tra emozioni e intelligenza artificiale?

Tra le caratteristiche distintive della specie umana vi sono la capacità di provare emozioni e quella di essere empatici con gli altri – al punto da utilizzare espressioni come “mettersi nei panni altrui” –, proprio perché gli esseri umani sono in grado di riconoscere la tristezza o la gioia, per esempio, nel volto dei propri simili. I sistemi di intelligenza artificiale, oggi, sono sempre più in grado di replicare diversi aspetti dell’apprendimento e dell’intelligenza umana: cosa succede, allora, con questa dimensione fondamentale della specie, cioè la capacità di provare e riconoscere le emozioni altrui? In merito al rapporto tra emozioni e intelligenza artificiale (IA), John Wheller, managing director di CrowdEmotion, ha affermato in un’intervista ai nostri microfoni che «affinché i computer siano funzionali nelle nostre vite, per quanto riguarda l’IA, essi devono essere in grado di comprenderci o almeno di reagire ai nostri comportamenti, alle nostre emozioni». In particolare, questo connubio potrebbe avere un grande impatto sulla vita di tutti i giorni e implicazioni per il marketing e per la customer experience.

È già possibile, però, pensare a un mondo in cui gli assistenti virtuali o i chatbot interagiscono con gli utenti, tenendo conto delle loro emozioni? Dalle Smart TV agli orologi digitali, passando per smartphone, sound system e sistema di luci, cosa accadrebbe se i dispositivi che gli individui utilizzano tutti i giorni cercassero di “tirarli su” dopo una giornata non positiva?

Emozioni e intelligenza artificiale: su cosa si basa questo connubio?

Come si costruisce, allora, il legame tra emozioni e intelligenza artificiale? Un passo importante in questo senso è stato fatto da un gruppo di ricercatori cinesi dell’Università di Tsinghua e dell’Illinois. Essi hanno proposto una “emotional chatting machine“, cioè in sostanza un chatbot in grado di rilevare le emozioni durante una conversazione con gli utenti e di rispondere in maniera adeguata, simulando diverse emozioni. Un articolo di The Guardian ha riportato un esempio di conversazione, sottolineando che il chatbot era dotato di cinque modalità emotive a scelta dell’utente (modalità “arrabbiato”, “triste”, “felice”, etc.) e che a seconda della modalità scelta era in grado di rispondere in maniera diversa. Come spiegato nell’articolo, alla frase “Peggior giornata di sempre. Sono arrivato in ritardo a causa del traffico“, scritta da un utente, il chatbot poteva rispondere in maniera diversa: per esempio, nella modalità ‘disgusto’, poteva rispondere con la frase “A volte la vita è una porcheria“, mentre nella modalità ‘felicità’ con”Mantieni il sorriso! Le cose miglioreranno“. Tuttavia, è utile ricordare che gli essere umani sono in grado di comunicare con gli altri utilizzando sia il linguaggio verbale che il linguaggio non verbale, così come l tono di voce. Gi ultimi due possono fornire importanti indizi sulle emozioni provate dagli interlocutori che vanno a incidere sui comportamenti.

Le applicazioni dell’intelligenza artificiale al marketing sono tante e aumentano al crescere del grado di perfezionamento di questa tecnologia. L’intelligent data processing, una tra le principali applicazioni dell’IA in Italia, per esempio, permette di sfruttare degli algoritmi di intelligenza artificiale per raccogliere dati ed eseguire azioni sulla base di questi ultimi. Infatti, buona parte dell’utilizzo dell’intelligenza artificiale si basa su azioni come click o acquisti effettuati proprio per poter fare delle previsioni su click o acquisti futuri e, dunque, una quantità importante di informazioni rilevanti non verrà presa in considerazione dai sistemi di intelligenza artificiale a meno che questi non siano in grado di leggere le espressioni facciali, il tono di voce o altri aspetti importanti del linguaggio non verbale.

Affinché l’intelligenza artificiale sia in grado di fare delle previsioni davvero accurate relative ai comportamenti del consumatore o di fornire soluzioni o informazioni davvero utili e adatte a ogni situazione, questa tecnologia deve essere in grado di “comprendere” o riconoscere le emozioni umane e rispondere di conseguenza, come ha sostenuto John Wheller nell’intervista ai nostri microfoni. Proprio per rispondere a questa esigenza cresce l’attenzione nei confronti della cosiddetta “artificial emotional intelligence“, anche nota come “tecnologia di riconoscimento emotivo”.

Intelligenza emotiva artificiale: impatto sulla vita di tutti i giorni

Come affermato da Rana el Kaliouby, co-fondatrice di Affectiva, gli agenti conversazionali possono «persuaderti a vivere una vita più produttiva, salutare e felice, ma credo che non possano fare a meno che non riescano a provare empatia e a tener conto del tuo stato sociale, emotivo e cognitivo. Ciò non è possibile senza l’affective computing o ciò che chiamiamo intelligenza emotiva artificiale».

Oltre a Affectiva e a Crowdemotion, ci sono già diverse aziende che lavorano sullo sviluppo di questo tipo di tecnologia il cui scopo è quello di riconoscere un volto umano in tempo reale oppure in un’immagine o un video attraverso una semplice webcam, identificare le espressioni facciali e collegarle a differenti emozioni come la tristezza, la rabbia o la felicità. In un’intervista a Forbes, l’esperta ha affermato di credere che tra tre/cinque anni «i nostri dispositivi avranno dei chip emotivi e una varietà di sensori» che gli consentiranno di percepire lo stato emotivo delle persone. Pensando alle smart home, allora, è possibile iniziare a comprendere le implicazioni che questa tecnologia potrà avere nel quotidiano. A titolo esemplificativo, John Wheller ha spiegato:

«Prendiamo un esempio molto semplice, magari: se può sembrare che tu sia triste o giù di morale è possibile che il tuo cellulare o il tuo sistema audio inizi a passare canzoni felici per cercare di farti sentire più allegro. Magari questo è un caso in cui (questa tecnologia) non ha una grande utilità, però (l’idea è che) le cose attorno a te possano iniziare a risponderti e i computer riconoscano il modo in cui tu reagisci a una situazione».

Fonte: Affectiva

Un’applicazione che potrebbe rivelarsi molto utile, invece, riguarda l’industria automobilistica e il monitoraggio delle emozioni e delle reazioni dell’automobilista durante l’esperienza di guida. Affectiva collabora attualmente con aziende come BMW e Porsche e, secondo il sito aziendale, l’idea è quella di creare delle esperienze di guida più sicure, verificando per esempio se l’autista ha sonno, se è distratto, se è sobrio o meno. In questi casi, i conducenti potrebbero ricevere un’allerta audio o sul display che ricordi loro di essere attenti alla guida. Questa tecnologia, poi, sarebbe anche in grado di monitorare le emozioni dell’automobilista in una situazione di conflitto altri, consigliandogli di mantenere la calma, ma anche una strada alternativa da prendere, facendo suonare una delle canzoni rilassanti preferite dell’individuo.

In un’altra intervista Rana el Kaliouby ha parlato del potenziale dell’IA per la salute e, nello specifico, per il controllo della salute mentale. Poiché le espressioni facciali possono essere degli indicatori di problemi mentali come depressione, trauma o ansia, queste possono essere monitorate nei «periodi che intercorrono tra le visite mediche, affinché i pazienti possano sapere quando si sono allontanati da uno stato di normalità», cosa che contribuisce anche alla promozione di forme di terapia più personalizzate.

Fonte: Reuters

Impossibile parlare del legame tra emozioni e intelligenza artificiale, poi, senza considerare l’impatto che potrebbe avere anche sull’industria del sesso: un’indagine condotta su 1000 cittadini britannici ha rivelato che una persona su quattro sarebbe disposta ad uscire con un robot se questo fosse simile a un essere umano. Inoltre, c’è una crescente domanda di robot del sesso e, come scrive il Daily Mail, ci sarebbe anche un «numero sorprendente di consumatori pronti a spendere molto per avere sexy cyborg che siano in grado di creare un legame emotivo». In questo senso, la possibilità di insegnare a un robot a simulare emozioni anche in risposta a quelle di un eventuale “partner” potrebbe cambiare totalmente l’esperienza dell’utente e il settore dell’intrattenimento per adulti, anche se ovviamente i relativi effetti o potenziali conseguenze a livello sociale restano ancora da valutare.

Opportunità per il business e implicazioni per il marketing

Campagne pubblicitarie e storytelling

Il riconoscimento emotivo e l’intelligenza artificiale sono utilizzati molto per l’ottimizzazione della comunicazione pubblicitaria. Circa 1400 marchi in tutto il mondo, tra cui MARS e Kellogg’s, sfruttano la tecnologia sviluppata dall’azienda Affectiva e molti di questi, secondo un articolo di Forbes, lo fanno per analizzare l’impatto degli annunci pubblicitari sull’audience. Le espressioni facciali degli spettatori vengono monitorate e poi classificate da algoritmi di deep learning come indicatori di determinate emozioni in risposta allo stimolo presentato. In questo modo è possibile comprendere se lo spot è in grado di suscitare le emozioni desiderate (gioia, sorpresa o tristezza, per esempio).

Il connubio tra emozioni e intelligenza artificiale ha, però, tante altre possibili applicazioni nel settore del marketing, come evidenziato in un’intervista ai nostri microfoni da Christian Oliver Harris, director of customer success presso Persadoagenzia di marketing che sfrutta l’AI generated language per ottimizzare le campagne pubblicitarie. Durante Mashable Social Media Day Italy + Digital Innovation Days 2018 l’esperto ha spiegato come sia possibile creare dei messaggi mirati a livello emotivo per diversi segmenti di target :

«A Persado utilizziamo un software basato su un algoritmo che è in grado nel tempo di “comprendere” quelle che sono le emozioni, le parole, le espressioni che funzionano meglio per una determinata audience, un determinato segmento di un’audience e una determinata persona. Quindi, è in grado nel tempo, con l’accumulo di dati, di arrivare a individuare l’emozione che è più efficace per te».

Christian Harris durante l'intervento al Social Media Day 2018. Con l'intelligenza artificiale si può individuare quali emozioni saranno più adatte per ogni segmento di target.

Christian Harris durante il suo intervento a Mashable Social Media Day Italy 2018.

Come spiegato dall’esperto, questo tipo di tecnologia funziona in maniera crosschannel, per cui è possibile ottimizzare le interazioni tra cliente e azienda attraverso i diversi punti di contatto come i social network , ma anche sito aziendale e email. Un esempio fornito dall’esperto è quello di un’azienda che deve comunicare la vendita di un nuovo portatile e che, per farlo, utilizza diversi canali come Facebook e email. Il software è in grado di analizzare i messaggi creati dal team di marketing, andando a individuare le parole o le espressioni che generano determinate emozioni e che possono funzionare meglio per i diversi utenti.

Il messaggio creato e che si vuole testare viene scomposto in diverse parti: un’espressione come “solo per oggi” (nella frase “offerta valida solo per oggi”) viene così classificata come la componente “di urgenza” all’interno del messaggio (poiché creo una sensazione di urgenza a chi lo legge). Tuttavia, il messaggio ha anche altre componenti, come per esempio una call to action , per la quale «per esempio nell’annuncio su Facebook l’azienda può scrivere “compra ora, clicca qui o scopri di più”».

Insieme poi al team che lavora con il software, è possibile definire una strategia per testare i messaggi da proporre e individuare quelli che funzionano meglio per i diversi utenti, grazie al “test multivariato ortogonale“. Come ha spiegato l’esperto in un’intervista ai nostri microfoni, «la macchina è in grado di dire non solo quale messaggio aziendale funziona meglio rispetto a un altro (come fa il tipico A/B test), ma è anche è in grado di dire “il messaggio D ha avuto una performance migliore del messaggio A per una parte specifica», cioè per esempio la parte di introduzione del messaggio D era più adatta rispetto a quella del messaggio A. «Quindi individua quali parti funzionano meglio per ogni messaggio e quanto contribuiscono alla performance finale», cioè in questo caso a vendere più portatili.

Inoltre, questa tecnologia può creare un nuovo messaggio e fare una previsione: prendendo gli elementi più performanti dei diversi messaggi testati dal software (la call to action da uno, l’introduzione da un altro), è in grado di proporre un nuovo messaggio che tenderà a essere più efficace. Ovviamente quest’ultimo andrà testato e revisionato a livello linguistico, affinché risulti «coerente e fluido», motivo per cui, come aggiunge l’esperto, la componente umana risulta comunque fondamentale quando si parla di intelligenza artificiale.

Infine, seguendo questa logica, questo tipo di tecnologia può essere molto utile per lo storytelling. Come ha spiegato Christian Oliver nell’intervista ai nostri microfoni, infatti,

«si è in grado oggi con l’intelligenza artificiale di applicare delle narrazioni, delle storie. Cioè, si è in grado di vendere per esempio un SUV raccontando una storia completamente diversa a Paola, rispetto a Megan. A Paola, che è preoccupata per la sicurezza dei suoi figli, raccontiamo, attraverso una bellissima immagine evocativa di suo figlio che dorme sereno nel SUV, che quella macchina è sicura. A Megan, invece, che è un’avventuriera, che vuole comprare il prodotto per fare tante avventure, le mostriamo una foto del SUV che va contro una valanga di neve, quindi una foto ovviamente iperbolica per dire che con quella macchina lei potrà vivere tutte le avventure che vuole. È così possibile individuare il linguaggio migliore per un’audience, un segmento o una persona e addirittura raccontare storie diverse che “triggerano” emozioni totalmente diverse».

Customer service e customer experience più personalizzata che mai

Un’altra applicazione è quella relativa al settore del customer service e della customer experience . Nonostante gli individui siano più abituati a interfacciarci con lo staff aziendale per ottenere assistenza, all’interno di un aeroporto un robot, come proposto da John Wheller, potrebbe fornire indicazioni ai passeggeri sugli orari del volo o sulla porta di imbarco. L’ulteriore sviluppo di queste tecnologie, poi, potrebbe portare alla creazione di robot e assistenti vocali in grado di rispondere in maniera molto più naturale e “umana”, a seconda dello stato emotivo dell’utente.

Emozioni e intelligenza artificiale possono coesistere anche per quel che riguarda l’ottimizzazione di prodotti: l’applicazione all’industria automobilistica, per esempio, può essere pensata non solo per un miglioramento della qualità di vita, ma anche per offrire un prodotto più personalizzato e un’esperienza più adatta alle esigenze di ogni singolo consumatore, in tempo reale.

La sensazione è che il connubio tra emozioni e intelligenza artificiale si diffonderà sempre di più nei prossimi anni. Come ha affermato in un’intervista ai nostri microfoni Marco Gori, professore di Sistemi di elaborazione dell’informazione presso l’Università di Siena, infatti, «le aziende che utilizzano di più questo tipo di tecnologia naturalmente sono le grandi aziende, ma ci troviamo in un momento di grande cambiamento, quindi la mia impressione è che anche le aziende più piccole si avvicineranno presto a questo mercato».

Intelligenza artificiale, riconoscimento emotivo e opportunità per il business | Marco Gori
Intelligenza artificiale, riconoscimento emotivo e opportunità per il business | Marco Gori

© RIPRODUZIONE RISERVATA È vietata la ripubblicazione integrale dei contenuti

Resta aggiornato!

Iscriviti gratuitamente per essere informato su notizie e offerte esclusive su corsi, eventi, libri e strumenti di marketing.

loading
MOSTRA ALTRI