AI può predire se il tuo rapporto durerà in base a come parli al tuo partner

AI può predire se il tuo rapporto durerà in base a come parli al tuo partner

Qualsiasi bambino (o coniuge) che è stato sgridato per il suo tono di voce - come gridare o essere sarcastico - sa che il modo tu parli con qualcuno può essere importante quanto il parole che usi. Gli artisti e gli attori della voce ne fanno un grande uso - sono abili nel dare un senso nel modo in cui parlano, a volte molto più di quanto le sole parole meriterebbero.

Ma quante informazioni vengono trasmesse nel nostro tono di voce e nei modelli di conversazione e in che modo ciò influenza le nostre relazioni con gli altri? I sistemi computazionali possono già stabilire chi sono le persone dalle loro voci, così potrebbero anche dirci qualcosa sulla nostra vita amorosa? Sorprendentemente, sembra così.

Nuova ricerca, appena pubblicato sulla rivista PLOS-ONE, ha analizzato le caratteristiche vocali delle coppie 134 sottoposte a terapia. I ricercatori della University of Southern California hanno utilizzato i computer per estrarre le funzionalità standard di analisi del parlato dalle registrazioni dei partecipanti alla sessione terapeutica per due anni. Le caratteristiche - tra cui intonazione, variazione di tono e intonazione - tutti riguardano aspetti della voce come tono e intensità.

Un algoritmo di apprendimento automatico è stato quindi addestrato per apprendere una relazione tra quelle caratteristiche vocali e l'esito finale della terapia. Non era così semplice come rilevare voci urlate o alzate - includeva l'interazione della conversazione, che parlava quando e per quanto tempo e il suono delle voci. Si è scoperto che ignorare ciò che veniva detto e considerare solo questi modelli di parola era sufficiente a prevedere se le coppie sarebbero state o meno insieme. Questo è stato puramente guidato dai dati, quindi non ha messo in relazione i risultati con attributi vocali specifici.

Come un tono di voce può cambiare il significato di poche parole.

È interessante notare che le registrazioni video complete della sessione di terapia sono state quindi date agli esperti per la classificazione. A differenza dell'intelligenza artificiale, hanno fatto le loro previsioni usando la valutazione psicologica basata sugli attributi vocali (e altri) - comprese le parole parlate e il linguaggio del corpo. Sorprendentemente, la loro predizione dell'outcome finale (erano corretti in 75.6% dei casi) era inferiore alle previsioni fatte dall'IA basata solo sulle caratteristiche vocali (79.3%). Chiaramente ci sono elementi codificati nel modo in cui parliamo che nemmeno gli esperti sono a conoscenza. Ma i risultati migliori sono stati ottenuti combinando la valutazione automatica con la valutazione degli esperti (79.6% corretto).


Ricevi le ultime novità da InnerSelf


Il significato di questo non è tanto di coinvolgere l'intelligenza artificiale nel counseling matrimoniale o di convincere le coppie a parlare più bene l'un l'altro (per quanto meritorio possa essere). Il significato sta rivelando quante informazioni sui nostri sentimenti di fondo sono codificate nel modo in cui parliamo, alcune delle quali completamente sconosciute a noi.

Le parole scritte su una pagina o uno schermo hanno significati lessicali derivati ​​dalle loro definizioni di dizionario. Questi sono modificati dal contesto delle parole circostanti. Può esserci una grande complessità nella scrittura. Ma quando le parole vengono lette ad alta voce, è vero che assumono significati aggiuntivi che vengono trasmessi dallo stress, dal volume, dal ritmo e dal tono della voce. In una tipica conversazione c'è anche il significato di quanto a lungo parla ciascun oratore, e quanto velocemente l'uno o l'altro potrebbe intervenire.

Considera la semplice domanda "Chi sei?". Prova a parlare di questo con lo stress su parole diverse; "Chi sono tu?", "Chi impianti completi per la produzione di prodotti da forno tu e "Chi tu sei?". Ascolta questi - il significato semantico può cambiare con il modo in cui leggiamo anche quando le parole rimangono le stesse.

I computer leggono "perdite di sensi"?

Non sorprende che le parole trasmettano significati diversi a seconda di come sono parlate. Inoltre, non sorprende che i computer possano interpretare in parte il significato di come scegliamo di parlare (forse un giorno saranno persino in grado di capire l'ironia).

Ma questa ricerca non fa altro che guardare al significato trasmesso da una frase. Sembra rivelare atteggiamenti e pensieri sottostanti che si celano dietro le frasi. Questo è un livello molto più profondo di comprensione.

I partecipanti alla terapia non stavano leggendo parole come attori. Stavano solo parlando in modo naturale - o il più naturale possibile nell'ufficio di un terapeuta. Eppure l'analisi ha rivelato informazioni sui loro sentimenti reciproci che stavano "perdendo" inavvertitamente nel loro discorso. Questo potrebbe essere uno dei primi passi nell'uso dei computer per determinare cosa stiamo realmente pensando o sentendo. Immagina per un attimo di conversare con i futuri smartphone: "creeremo" informazioni che possono raccogliere? Come risponderanno?

Potrebbero consigliarci sui potenziali partner ascoltandoci a parlare insieme? Potrebbero rilevare una propensione al comportamento antisociale, alla violenza, alla depressione o ad altre condizioni? Non sarebbe un salto di immaginazione immaginare dispositivi stessi come futuri terapeuti - interagire con noi in vari modi per tracciare l'efficacia degli interventi che stanno erogando.

Non ti preoccupare ancora, perché siamo lontani anni da un tale futuro, ma aumenta Problemi di privacy, specialmente quando interagiamo più profondamente con i computer nello stesso momento in cui stanno diventando più potenti nell'analisi del mondo che li circonda.

The ConversationQuando ci fermiamo anche a considerare gli altri sensi umani oltre al suono (parola); forse perdiamo anche informazioni attraverso la vista (come il linguaggio del corpo, arrossire), il tatto (temperatura e movimento) o persino l'odore (feromoni). Se i dispositivi intelligenti possono imparare tanto ascoltando il modo in cui parliamo, ci si chiede quanto più potrebbero spigolare dagli altri sensi.

Circa l'autore

Ian McLoughlin, professore di informatica, responsabile della scuola (Medway), University of Kent

Questo articolo è stato pubblicato in origine The Conversation. Leggi il articolo originale.

Libri correlati:

{amazonWS: searchindex = Libri; parole chiave = relazioni riuscite; maxresults = 3}

enafarZH-CNzh-TWnltlfifrdehiiditjakomsnofaptruessvtrvi

segui InnerSelf su

facebook-icontwitter-iconrss-icon

Ricevi l'ultimo tramite e-mail

{Emailcloak = off}