
Da sempre considerate la parte più difficile da codificare dell’uomo, le emozioni diventano elemento centrale di esercizi di intelligenza artificiale che mirano, tramite l’analisi del linguaggio del corpo e di parametri fisiologici come battito cardiaco e temperatura, a decodificarle, rendendole misurabili e quantificabili.
Contrariamente a quanto possiamo credere, è un campo di ricerca ed applicazioni che risale agli anni 50’-60’ in cui si svilupparono i primi prototipi, seguiti da periodi di entusiasmo ed abbandono, a seconda degli sviluppi delle scienze e tecniche sottostanti (e.g. potenza dei calcolatori). Negli ultimi anni abbiamo visto un rilancio potente che prelude ad un uso molto ampio dell’IA in tantissimi campi.

L’intelligenza artificiale emotiva
Postura, espressioni facciali, tono della voce sono indizi che impariamo a leggere e interpretare nelle persone che conosciamo da molto tempo, ma possono mandarci in confusione quando davanti a noi c’è un interlocutore nuovo con cui trattare e interagire.
Nel corso degli ultimi vent’anni, ricercatori e scienziati, nonché ingeneri e informatici, hanno spinto le ricerche sull’interazione tra uomo e macchina fino alla sfera delle emozioni. I parametri oggetto di analisi risultano essere il linguaggio non verbale, il registro linguistico, il tono vocale e le microespressioni facciali, insieme a parametri fisiologici quali battito cardiaco, temperatura corporea e frequenza del respiro.
Dell’utilizzo di sistemi e modelli per decifrare le emozioni ne parlò già nel 1995 la professoressa della MIT University Rosalind Picard, coniando il termine “calcolo affettivo”. Ed è infatti un calcolo quello che è chiamata a svolgere l’Intelligenza Artificiale in questione: un calcolo che incrocia i dati biometrici con quelli fisiologici, collezionati tramite videocamere e wearables, i dispositivi indossabili sempre più in voga. La collezione dei dati si combina poi con tecniche di apprendimento automatiche, che tramite l’individuazione di patterns, rendonola macchina capace di riconoscere emozioni anche in soggetti sconosciuti, sui cui dati non è stata allenata.
Gli applicativi e gli scenari futuri
Man mano che dispositivi intelligenti, come gli assistenti virtuali, sono diventati parte della nostra vita quotidiana è diventato fondamentale per questi dispositivi riuscire a comprendere il nostro stato emotivo per meglio reagire ai nostri stimoli, al fine di fornire all’utente un’esperienza quanto più personalizzata e soddisfacente possibile.
L’Intelligenza Artificiale emotiva può essere utilizzata dalle aziende per analizzare la percezione del marchio, per raccogliere feedback e impressioni, ottimizzando così la propria strategia di marketing e comunicazione pubblicitaria per aumentare il grado di soddisfazione e fidelizzazione del cliente.
Un altro applicativo commerciale è quello legato al Servizio Clienti: l’IA può segnalare all’operatore (più comunemente un bot e non un umano) che il cliente si sta infastidendo o che mostra segni di insoddisfazione, modulando la conversazione di conseguenza e anticipando potenziali richieste (riducendo la nostra voglia di inveire col fornitore…) .
In ambito sanitario, tale tecnologia potrebbe essere utilizzata per comprendere quando le persone affette da patologie, come quelle dello spettro autistico, o disturbi del linguaggio e del comportamento, non sono a proprio agio.
Nel settore automotive, invece, sensori e videocamere vengono dispiegati per identificare gli staticognitivi di conducenti e dei passeggeri (es. rilevatori di stanchezza).
Infine, gli applicativi dell’IA emotiva coinvolgono il settore dell’intrattenimento, per valutare le risposte del pubblico a spettacoli e film. È stato reso noto, per esempio, che la Disney utilizza l’Intelligenza Artificiale emotiva per analizzare le risposte del pubblico durante le proiezioni di prova.
È notizia recente che ha fatto scalpore (e scattare una multa dal Garante Privacy) anche l’ardito ed innovativo uso dell’IA all’Università Bocconi durante le sessioni d’esame a distanza, per tenere d’occhio gli studenti e segnalare eventuali comportamenti anomali (e.g. lo sguardo non rivolto al computer, l’assenza dal desk, etc.). Non osiamo immaginare, pensando ai nostri esami passati, se l’IA venisse anche usata per catturare gli impercettibili segni di insicurezza durante il faccia a faccia col docente…
Implicazioni e pericoli
Si ritiene che entro il 2022, un dispositivo tecnologico su dieci sarà dotato di almeno una tecnologia per il riconoscimento delle emozioni.
L’interpretazione della complessità degli stati d’animo è un percorso complesso, che non deve, per esempio, trascurare le differenti percezioni culturali legate alle emozioni le quali, se non riconosciute, potrebbero portare gli algoritmi a generare pregiudizi (bias), compromettendo l’accuratezza dei sistemi.
Fondamentale dovrà restare inoltre l’attenzione alla privacy e la garanzia di trasparenza, aspetti imprescindibili per qualsiasi tecnologia che utilizzi dati personali.
Su tutto questo si lavora a livello di Unione Europea, anche per definire linee guida etiche atte a regolare le possibili applicazioni dell’IA. Applicazioni che promettono di avere un impatto enorme sulla nostra società ed economia, paragonabili a quanto hanno fatto in passato il motore a vapore o l’elettricità.
Gli studenti impreparati sono avvertiti, attenti alla prossima sessione d’esame..
Articolo scritto in collaborazione con Fabrizia Candido.