Il computer che ti capisce
Quando la realtà si avvicina (e supera) la migliore fantascienza
Di laRegione
Pubblichiamo un contributo apparso su Ticino7, disponibile anche nelle cassette di 20 Minuti per tutto il fine settimana.
Se l’intelligenza artificiale rappresenta la nuova frontiera dell’innovazione, allora c’è una frontiera nella frontiera: l’intelligenza artificiale emotiva. Macchine che ci osservano e ci regalano consigli e ‘raccomandazioni’.
Automobili capaci di decodificare lo stato di vigilanza di un guidatore e consigliargli di fermarsi a prendere un caffè… o un calmante, a seconda dei casi. Oppure analizzatori vocali in grado di cogliere i prodromi di una sindrome depressiva da micro-inflessioni nel tono della voce, impercettibili all’orecchio umano. O ancora algoritmi che riconoscono lo stato emotivo di una persona e selezionano brani musicali adatti all’umore del momento.
Questo e molto altro rientra nella sfera di ricerca nota come affective computing: espressione coniata da Rosalind Picard, ricercatrice del MIT, nel 1997 per indicare la programmazione di sistemi in grado di analizzare, riconoscere, simulare e influenzare le emozioni umane. Considerata la complessità del compito, la «programmazione affettiva» si avvale di algoritmi in grado di apprendere dai propri errori e di evolvere nel tempo. L’esempio più noto è forse Watson dell’IBM: un sistema di intelligenza artificiale che annovera fra le sue competenze quella di riconoscere l’intonazione emotiva di un testo scritto (allegra, arrabbiata, perfino sarcastica) aiutando chi legge a decifrare il tono del messaggio.
Dirlo con la faccia
Le emozioni sono un sistema di segnalazione estremamente sofisticato ed efficiente: consentono di comprendere subito (l’elaborazione avviene a livello sottocorticale, passando quindi per «la via più breve») se quell’oggetto/animale/persona comparso nel mio campo visivo è qualcosa da cui devo proteggermi – nel qual caso sentirò paura e comincerò automaticamente ad approntare un assetto di difesa – oppure è qualcosa di nuovo – e allora proverò curiosità, innescando un comportamento esplorativo – oppure qualcosa che mi piace e mi fa stare bene, sperimentando quindi un senso di gioia e magari il desiderio di corrervi incontro. Le emozioni nascono nel corpo e il corpo ne segnala l’insorgenza. Il sistema di segnalazione emotivo è dunque a «doppio senso»: informa la persona che le prova sulla valenza, positiva o negativa, di una certa situazione e, al contempo, comunica all’ambiente come la persona si sente. I sistemi di intelligenza artificiale imparano a interpretare questi segnali estrapolando l’emozione corrispondente.
Gli indicatori più utilizzati sono le micro-espressioni facciali – dilatazione pupillare; contrazione o rilassamento, in varie combinazioni, dei circa ventidue muscoli facciali che compongono la nostra mimica –, il registro vocale – prosodia, modulazione, velocità dell’eloquio, volume… –, il linguaggio non verbale – postura, gestualità, tono muscolare… – e i parametri fisiologici – frequenza respiratoria, battito cardiaco, grado di umidità della pelle… In base a come è stato programmato, il sistema rileva una o più classi di segnali provenienti dall’umano con cui sta interagendo e le confronta con il proprio database, ricavandone una valutazione del suo stato emotivo.
Riconoscere lo stato d’animo
Considerato il quantitativo di dati che un computer può elaborare nella singola unità di tempo, non stupisce apprendere che queste macchine risultano molto efficienti nel leggere le «informazioni» emotive. Un team di ricercatori presso l’Università dell’Ohio (Du, Tao & Martinez, 2014), per esempio, ha istruito un computer nel riconoscimento delle espressioni facciali sulla base di 5’000 immagini prodotte da 230 volontari che rispondevano a stimoli verbali quali «senti odore di bruciato» o «ricevi una notizia inaspettata». Al termine dell’addestramento, il computer era in grado di differenziare con un notevole grado di accuratezza non solo le emozioni primarie (sorpresa, rabbia, paura ecc.) ma anche 21 emozioni complesse del tipo «piacevolmente stupito», «paurosamente arrabbiato», «sconcertato» o «tristemente disgustato».
Un altro studio (Bartlett, Littlewort, Frank & Lee, 2014) ha dimostrato come un programma di riconoscimento facciale – il CERT (Computer Expression Recognition Toolbox) – sia in effetti più bravo degli umani nel distinguere un’espressione di dolore simulata da una autentica. In altre parole, questa applicazione è in grado di capire con un grado di accuratezza dell’85% se state mentendo o meno. Le potenziali applicazioni dell’informatica affettiva sono innumerevoli e spaziano dalle più «strumentali» (marketing, politica) alle più «nobili» (supporto alle persone autistiche, robot emotivamente intelligenti con funzione di assistenza alle persone anziane o malate).
A lato dei singoli sviluppi, però, sono le implicazioni in senso più ampio a sollevare interrogativi. Rosalind Picard afferma che scopo del suo gruppo di ricerca al MIT è quello di «ristabilire il giusto equilibrio fra emozione e cognizione nella progettazione di tecnologie pensate per rispondere alle esigenze umane». Confidiamo che il perseguimento di questo lodevole obiettivo non conduca invece a situazioni incresciose, come quella che vede protagonista l’infallibile supercomputer «HAL 9000» nell’immortale 2001: Odissea nello spazio…
SETTE ESEMPI “APPLICATI”
Pubblicità
L’impatto emotivo di un messaggio pubblicitario è strategico ai fini della vendita di un prodotto. Le ricerche di marketing del futuro saranno probabilmente condotte attraverso la rilevazione di parametri mimici e fisiologici, invece che interrogando i consumatori.
Grande Fratello
La Disney ha messo a punto un sistema di riconoscimento facciale dei cine-spettatori per determinare il loro livello di gradimento in rapporto a ogni singola scena di Toy Story 5.
Aiuto
Rosalind Picard e il suo gruppo al MIT Media Lab hanno implementato dispositivi indossabili che aiutano le persone autistiche a riconoscere e interpretare correttamente le emozioni espresse dagli altri.
Che noia…
Nell’apprendimento a distanza, un sistema di intelligenza artificiale emotiva può segnalare quando un allievo sta cominciando ad annoiarsi in modo da calibrare la presentazione di un contenuto sul livello di attenzione disponibile.
Emozioni
I servizi di assistenza psicologica possono utilmente integrare i test «tradizionali» con questa tecnologia per coadiuvare la lettura dello stato emotivo di un paziente e fare una diagnosi più accurata.
Lavoro
Se i cobot, robot realizzati per lavorare «gomito a gomito» con le persone, sono il futuro del lavoro manuale, la sinergia risulterà facilitata dalla capacità delle macchine di riconoscere
le emozioni manifestate dai «colleghi» umani.
Umani
Le chatbot, e cioè i cosiddetti «assistenti virtuali» (Siri, Google Assistant): software impiegati nell’assistenza ai clienti e per fornire informazioni in tempo reale. Alcuni superano
il Test di Turing, riuscendo a far dimenticare che si sta «parlando» con una macchina. Per ulteriori specifiche rimandiamo al primo Blade Runner…