L'intelligenza artificiale comprenderà mai le emozioni umane?

Come ti sentiresti ad ottenere la terapia da un robot? Le macchine emotivamente intelligenti potrebbero non essere così lontane come sembra. Negli ultimi decenni, l'intelligenza artificiale (IA) è sempre più brava a leggere le reazioni emotive negli esseri umani.

Ma leggere non è la stessa cosa della comprensione. Se l'intelligenza artificiale non è in grado di provare le emozioni da sole, può mai veramente capirci? E se no, c'è il rischio che noi attribuiamo proprietà di robot che non hanno?

L'intelligenza artificiale di ultima generazione è stata realizzata grazie all'aumento dei dati disponibili per l'apprendimento da parte dei computer e alla loro maggiore potenza di elaborazione. Queste macchine sono sempre più competitive in attività che sono sempre state percepite come umane.

L'IA ora può, tra le altre cose, riconoscere i volti, trasforma gli schizzi a faccia in foto, riconoscere il discorso ed gioca Vai.

Identificazione dei criminali

Recentemente, i ricercatori hanno sviluppato un'intelligenza artificiale che è in grado di dire se una persona è un criminale semplicemente osservando le sue caratteristiche facciali. Il sistema è stato valutato utilizzando un database di foto ID cinesi e i risultati sono a bocca aperta. L'IA ha erroneamente classificato gli innocenti come criminali solo intorno al 6% dei casi, mentre era in grado di identificare con successo circa il 83% dei criminali. Ciò porta ad una incredibile precisione complessiva di quasi 90%.

Il sistema si basa su un approccio chiamato "apprendimento profondo", che ha avuto successo in attività percettive come il riconoscimento facciale. Qui, l'apprendimento profondo combinato con un "modello di rotazione del volto" consente all'IA di verificare se due foto facciali rappresentano lo stesso individuo anche se l'illuminazione o l'angolo cambia tra le foto.


innerself iscriviti alla grafica


Apprendimento approfondito costruisce una "rete neurale", modellata liberamente sul cervello umano. Questo è composto da centinaia di migliaia di neuroni organizzati in diversi strati. Ogni livello trasforma l'input, ad esempio un'immagine facciale, in un livello più alto di astrazione, ad esempio un insieme di bordi in determinati orientamenti e posizioni. Questo enfatizza automaticamente le funzionalità più rilevanti per eseguire una determinata attività.

Dato il successo dell'apprendimento approfondito, non è sorprendente che le reti neurali artificiali siano in grado di distinguere i criminali dai non criminali - se esistono davvero caratteristiche facciali che possono discriminare tra loro. La ricerca suggerisce che ce ne sono tre. Uno è l'angolo tra la punta del naso e gli angoli della bocca, che in media era 19.6% più piccola per i criminali. La curvatura del labbro superiore era anche in media 23.4% più grande per i criminali mentre la distanza tra gli angoli interni degli occhi era in media 5.6% più stretta.

A prima vista, questa analisi sembra suggerire che visualizzazioni obsolete che i criminali possono essere identificati dagli attributi fisici non sono completamente sbagliati. Tuttavia, potrebbe non essere la storia completa. È interessante notare che due delle caratteristiche più rilevanti sono legate alle labbra, che sono le nostre caratteristiche facciali più espressive. Le foto identificative come quelle utilizzate nello studio devono avere un'espressione neutra del viso, ma potrebbe essere che l'IA sia riuscita a trovare emozioni nascoste in quelle foto. Questi possono essere così piccoli che gli umani potrebbero aver faticato a notarli.

È difficile resistere alla tentazione di guardare le foto di esempio visualizzate nel documento, che deve ancora essere rivisto tra pari. In effetti, uno sguardo attento rivela un leggero sorriso nelle foto dei non criminali - vedere di persona. Ma sono disponibili solo poche foto di esempio, quindi non possiamo generalizzare le nostre conclusioni all'intero database.

Il potere dell'elaborazione affettiva

Questa non sarebbe la prima volta che un computer è in grado di riconoscere le emozioni umane. Il cosiddetto campo di "calcolo affettivo"È in circolazione da diversi anni. Si sostiene che, se vogliamo vivere in modo confortevole e interagire con i robot, queste macchine dovrebbero essere in grado di comprendere e reagire in modo appropriato alle emozioni umane. C'è molto lavoro nella zona e le possibilità sono enormi.

Ad esempio, i ricercatori hanno utilizzato l'analisi facciale a spot studenti in difficoltà nelle sessioni di tutoraggio del computer. L'IA è stata addestrata a riconoscere diversi livelli di coinvolgimento e frustrazione, in modo che il sistema potesse sapere quando gli studenti stavano trovando il lavoro troppo facile o troppo difficile. Questa tecnologia potrebbe essere utile per migliorare l'esperienza di apprendimento nelle piattaforme online.

Anche AI ​​è stato abituato rilevare le emozioni in base al suono della nostra voce da una società chiamata BeyondVerbal. Hanno prodotto un software che analizza la modulazione vocale e cerca modelli specifici nel modo in cui le persone parlano. La società afferma di essere in grado di identificare correttamente le emozioni con precisione 80%. In futuro, questo tipo di tecnologia potrebbe, ad esempio, aiutare gli individui autistici a identificare le emozioni.

Sony sta anche cercando di sviluppare un robot in grado di formare legami emotivi con le persone. Non ci sono molte informazioni su come intendono raggiungerlo o su cosa farà esattamente il robot. Tuttavia, dicono che cercano di "integrare hardware e servizi per fornire esperienze emozionanti".

Un'intelligenza emotiva intelligente ha diversi potenziali benefici, sia che si tratti di dare a qualcuno un compagno o di aiutarci a svolgere determinati compiti, dall'interrogatorio criminale alla terapia parlante.

Ma ci sono anche problemi etici e rischi. È giusto lasciare che un paziente affetto da demenza faccia affidamento su un compagno di intelligenza artificiale e credi che abbia una vita emotiva quando non lo fa? E puoi condannare una persona basata su un'IA che li classifica come colpevoli? Chiaramente no. Invece, una volta che un sistema come questo è ulteriormente migliorato e pienamente valutato, un uso meno dannoso e potenzialmente utile potrebbe essere quello di innescare ulteriori controlli su individui considerati "sospetti" dall'IA.

Quindi, cosa dovremmo aspettarci da AI andando avanti? Argomenti soggettivi come le emozioni e il sentimento sono ancora difficili da imparare per l'intelligenza artificiale, in parte perché l'intelligenza artificiale potrebbe non avere accesso a un numero sufficiente di dati validi per analizzarli oggettivamente. Ad esempio, potrebbe mai capire il sarcasmo? Una determinata frase può essere sarcastica quando viene pronunciata in un contesto ma non in un altro.

Eppure la quantità di dati e potenza di elaborazione continua a crescere. Quindi, con poche eccezioni, l'intelligenza artificiale potrebbe essere in grado di eguagliare gli umani nel riconoscere diversi tipi di emozioni nei prossimi decenni. Ma se un'IA possa mai provare emozioni è a soggetto controverso. Anche se potessero, potrebbero certamente esserci emozioni che non potrebbero mai provare - rendendo difficile comprenderle davvero.

The Conversation

Circa l'autore

Leandro Minku, docente di informatica, Università di Leicester

Questo articolo è stato pubblicato in origine The Conversation. Leggi il articolo originale.

Libri correlati:

at InnerSelf Market e Amazon