AI & ROBOTICA

Le prospettive dell’Emotional AI

I sensori sono una delle direttrici principali attraverso le quali la rivoluzione digitale esercita il proprio ruolo trasformativo della società.

Siamo in grado di rilevare un’amplissima varietà di dati sull’ambiente che ci circonda, come ad esempio le condizioni meteo, la qualità dell’aria, l’irradiamento solare, il volume di traffico automobilistico, e così via. L’integrazione di ciascuno di questi parametri ci mette in condizione di ricevere suggerimenti circa le azioni da intraprendere in un certo momento, come ad esempio andare o meno a fare una passeggiata, intraprendere un percorso oppure un altro, indossare una protezione solare specifica rispetto al nostro fototipo.

In campo medico, l’esplosione dei sensori che rilevano sempre nuovi parametri fisiologici in maniera sempre più indipendente dalla volontà dell’individuo che li indossa ci offre nuove prospettive su quello che è possibile capire del nostro stato di salute istantaneo, e soprattutto ci fornisce informazioni su quelli che potrebbero essere i suoi futuri sviluppi. Una prospettiva senza dubbio interessante, se accoppiata ai dati provenienti dalla ricerca genomica, poiché fornisce agli individui ed ai medici un modo per trasformare la medicina da scienza fondamentalmente interventistica, a modello preventivo di gestione della salute.

Oltre a quello contestuale e fisiologico, il terzo anello della rilevazione, interpretazione e comprensione della realtà è quello legato alla sfera interiore degli individui. La rilevazione delle emozioni, la loro classificazione e l’uso di tale conoscenza per adattare gli strumenti di interazione con gli individui stessi ai più diversi fini è l’impianto di base dell’Emotional AI, un campo di ricerca in progressivo sviluppo e che presenta come sempre opportunità e minacce.

Il concetto di base dell’Emotional AI è la costruzione di cluster di sensori che vadano ad analizzare su base continuativa la nostra prossemica, specie facciale, e ne desumano il tipo di emozione che l’individuo sta vivendo. I movimenti anche impercettibili di muscoli facciali, le variazioni del ritmo di respirazione, il grado di dilatazione della pupilla, i cambi di colorazione della pelle – e quanto questo ci ricorda la blush response di Blade Runner – sono tutti indici individuali che una volta integrati ed analizzati, almeno in teoria, potrebbero fornire a qualunque soggetto interessato una prospettiva sul mondo interiore dell’individuo a livello istantaneo.

Gli ostacoli tecnici rispetto al raggiungimento di questo livello di comprensione sono ovviamente moltissimi. Da un punto di vista formale, quello che si cerca di raggiungere è un livello di comprensione dello stato emozionale di un individuo paragonabile a quello che un cane o un bambino di pochi anni può esprimere. 

I cani, nel proprio lungo percorso di coevoluzione con la specie umana, hanno imparato a comprendere tutta una serie di segnali provenienti dai loro partner umani che li mettono in condizione di reagire contestualmente ai loro stati d’animo. Questa capacità proviene dal fatto che i canidi in natura sono animali sociali, con una limitata capacità di espressione facciale rispetto all’uomo, ma abituati a desumere da stimoli olfattivi, sonori e di linguaggio del corpo, quale sia lo stato dei propri compagni di branco, e cosa si possono aspettare da loro in ciascun momento.

A loro volta, i bambini imparano entro i primi anni di vita a leggere le espressioni dei propri genitori e dei propri compagni di giochi, in modo da derivare una rudimentale consapevolezza di quello che succede intorno a loro e reagire di conseguenza. Se pur dotati di una quantità di possibili espressioni facciali più elevata rispetto ai cani, neonati e bambini piccoli sviluppano la capacità di esprimere emozioni – e anche di nasconderle – in un certo numero di anni, attraverso un addestramento continuo delle proprie percezioni.

Un sistema AI che sia in grado di reagire in maniera contestuale alle emozioni di un umano adulto dovrebbe, come detto, essere in grado di leggere ed interpretare i vari segnali attraverso un framework di riferimento, che canidi e bambini imparano ad apprendere in anni di addestramento. Codificare i segnali, determinare le loro interazioni, assegnare una specifica classificazione ed un grading di intensità a ciascuna combinazione, essere in grado di distinguere il vero dal falso, sono tutti aspetti di incredibile, ma non insormontabile difficoltà.

Lo sviluppo di questo tipo di capacità richiederà l’integrazione delle nostre conoscenze di psicologia clinica, analisi visuale, capacità di calcolo, algoritimi euristici che siano in grado di accelerare il processo, in uno sforzo che prenderà certamente alcune decine di anni.

Ma accanto a tutto questo, non possiamo trascurare i benefici e i pericoli che l’uso di queste tecnologie potrebbero apportare. Una AI in grado di reagire contestualmente alle emozioni umane potrebbe aprire nuove frontiere nell’assistenza agli anziani, nella rilevazione di situazioni di pericolo per persone non in grado di chiamare soccorso, nella terapia di soggetti con scarse o disorganizzate interazioni con il mondo esterno, come i pazienti autistici o i malati di Alzheimer. Allo stesso modo, aprire alla AI la porta delle nostre emozioni potrebbe avviare scenari distopici in termini di controllo sociale e di invasione della sfera interiore per fini di influenza commerciale.

Per il momento, possiamo semplicemente osservare le possibilità che si aprono davanti a noi, lasciando qualunque altra considerazione all’iconico dialogo tra Deckard e Rachel nel citato Blade Runner: “Sembra che tu pensi che il nostro lavoro non sia di beneficio per il pubblico” “I replicanti sono come qualunque altra macchina: sono un beneficio o un pericolo”.

Back to top button