una persona e un robot AI che si protendono l'uno verso l'altro
Le IA non sostituiscono il contatto umano, ma possono diminuire la solitudine.
AP Photo / Frank

"Come ti senti?"

Nell'isolamento della pandemia COVID-19, a molte persone manca un orecchio comprensivo. Una risposta del genere ti farebbe sentire ascoltato, meno solo, anche se fosse una macchina che ti risponde?

La pandemia ha contribuito a solitudine cronica. Strumenti digitali come chat video e social media aiutano a connettere persone che vivono o mettono in quarantena lontane. Ma quando quegli amici o familiari non sono prontamente disponibili, l'intelligenza artificiale può intervenire.

Milioni di persone isolate lo hanno fatto trovato conforto chattando con un bot AI. I robot terapeutici lo hanno ha migliorato la salute mentale degli utenti per decenni. Ora, gli psichiatri stanno studiando come questi compagni di intelligenza artificiale possono migliorare il benessere mentale durante la pandemia e oltre.

Come l'IA è diventata uno strumento terapeutico

I sistemi di intelligenza artificiale sono programmi per computer in grado di eseguire compiti che le persone normalmente farebbero, come tradurre lingue o riconoscere oggetti nelle immagini. I chatbot AI sono programmi che simulano la conversazione umana. Sono diventati comune nel servizio clienti perché possono fornire risposte rapide a domande di base.


innerself iscriviti alla grafica


Il primo chatbot è stato modellato su professionisti della salute mentale. Nel 1966, lo scienziato informatico Joseph Weizenbaum ha creato ELISA, che ha programmato per suonare come un file Psicoterapeuta di Rogerian. Gli approcci Rogerian incoraggiavano gli psicoterapeuti a porre domande aperte, spesso rispecchiando loro le frasi dei pazienti per incoraggiare i pazienti a elaborare. Weizenbaum non si aspettava che la sua intelligenza artificiale simile allo psicoterapeuta potesse avere alcun beneficio terapeutico per gli utenti. Addestrare ELIZA a tradurre i commenti degli utenti in domande era semplicemente un modello pratico, se non ironico, per il dialogo dell'IA.

Weizenbaum era stupito quando i suoi soggetti di prova in realtà confidato in ELIZA come farebbero con uno psicoterapeuta in carne e ossa. Molti partecipanti allo studio credevano di condividere pensieri vulnerabili con una persona viva. Alcuni di questi partecipanti si sono rifiutati di credere che l'apparentemente attenta ELIZA, che ha posto così tante domande durante ogni conversazione, fosse in realtà un computer.

Tuttavia, ELIZA non aveva bisogno di ingannare gli utenti per aiutarli. Anche la segretaria di Weizenbaum, che sapeva che ELIZA era un programma per computer, ha chiesto la privacy in modo da poter avere le sue conversazioni personali con il chatbot.

{vembed Y=RMK9AphfLco}

Nei decenni trascorsi da quando ELIZA ha sbalordito il suo inventore, gli informatici hanno lavorato con professionisti medici per esplorare come l'IA può supportare la salute mentale. Alcuni dei più grandi robot terapeutici del settore hanno una portata sorprendente, specialmente durante i periodi di incertezza sociopolitica, quando le persone tendono a segnalare livelli più elevati di isolamento e affaticamento.

Da quando è scoppiata la pandemia COVID-19, la domanda di opzioni di telemedicina, inclusi i chatbot AI, è salito alle stelle. Replika è un'app famosa per i suoi avatar realistici e personalizzabili, e ha riferito un aumento del traffico del 35%. Con strutture per la salute mentale sopraffatto da liste d'attesa lunghe settimane, milioni di persone stanno integrando le loro routine di salute mentale con chatbot terapeutici.

Poiché le esigenze di benessere mentale sono cambiate nel tempo, i programmatori e i terapisti collaborano costruire nuove IA in grado di affrontare queste nuove sfide.

una donna che manda un sms sul suo telefonoMilioni di persone hanno scaricato app di terapia AI durante la pandemia COVID-19. Jhaymesisviphotography / flickr

Il dottore digitale è dentro

Come può un chatbot sembrare così umano? Se dovessi sezionare un'IA, troverai algoritmi e script: regole, essenzialmente, che gli umani usano per dirigere il comportamento dell'IA. Con i chatbot, i programmatori addestrano l'IA a produrre automaticamente determinate frasi in risposta al messaggio di un utente. I programmatori lavorano quindi con gli scrittori per determinare il tipo di punteggiatura, emoji e altri elementi stilistici che il bot utilizzerà.

Questi script alla fine forniscono un senso dell '"atteggiamento" del bot. Ad esempio, un programmatore può addestrare un'IA a riconoscere la parola "depresso" in modo che, ogni volta che un utente digita una frase come "Mi sento stanco e depresso oggi", il chatbot potrebbe rispondere con "Ho sentito che ti senti depresso. Puoi spiegare perché? " Oppure uno scrittore può codificare il bot per produrre un tono più colloquiale: "Wow, mi dispiace che tu ti senta in questo modo. Perché pensi che potresti sentirti depresso? "

Questi script replicano una tattica comune nella terapia cognitivo comportamentale: fare domande. I robot della terapia con IA incoraggiano le persone a sfogare le frustrazioni e poi chiedono loro di riflettere più da vicino su quelle esperienze o emozioni. Anche quando le risposte di un'intelligenza artificiale sono ampie o aspecifiche, un paziente può trovare il processo di scrivere i propri pensieri a qualcuno - persino un "qualcuno" artificiale - catartico.

Chi ne trae vantaggio e come

I chatbot funzionano davvero per alleviare la solitudine o l'ansia? Sono necessarie ulteriori ricerche, ma sembra così. Diversi studi forniscono risultati promettenti. Ad esempio, giovani adulti che hanno regolarmente inviato messaggi a un chatbot terapeutico riferito di meno solitudine e ansia rispetto ai loro coetanei che non hanno utilizzato l'IA. Anche gli utenti anziani possono trarne beneficio dalla comunicazione con i chatbot, soprattutto se quegli anziani vivono da soli o non hanno contatti regolari con i propri cari.

Il potere terapeutico di un chatbot - e il suo tallone d'Achille - è il suo copione. Il dialogo è predeterminato, le stesse linee consegnate a più utenti. Queste risposte tramite script consentono a un chatbot di comunicare con numerosi utenti contemporaneamente. I chatbot sono particolarmente utili per le persone che vogliono esprimersi rapidamente e in modo anonimo, senza giudizio. Gli utenti possono immediatamente richiamare un chatbot per scaricare lo stress dalla loro giornata quando potrebbero non voler o essere in grado di condividere tali pensieri con la famiglia o gli amici.

Tuttavia, questi stessi script impediscono all'IA di essere un serio sostituto per i terapisti umani. I bot di intelligenza artificiale rispondono a determinate parole chiave, quindi a volte fraintendono gli utenti. Quando Vice ha testato la popolare app terapeutica Woebot, l'app ha prodotto una risposta imbarazzante.

Utente: "Sono estremamente ansioso e riesco a malapena a dormire."

Woebot: "Ah, non vedo l'ora di entrare nei miei jammies più tardi" seguito da una serie di emoji "z" assonnate

{vembed Y=AE966uR09es}

Un utente in preda a un attacco di panico potrebbe trovare questo commento scritto utile o confortante? Non è probabile. Ma a differenza dei terapisti umani, i bot di intelligenza artificiale non sono bravi a interpretare il contesto sociale o ad intervenire in una crisi. Sebbene un'intelligenza artificiale possa sembrare realistica, non è sempre uno strumento appropriato da usare quando la vita di qualcuno è in pericolo. A differenza dei consulenti di crisi addestrati, i chatbot non possono raccomandare piani di sicurezza specifici o mettere in contatto gli utenti con le risorse sanitarie e il supporto nella loro comunità.

Nonostante questi limiti reali, i chatbot AI forniscono una piattaforma tanto necessaria per la comunicazione aperta e l'autoespressione. Con app terapeutiche come replica, Tess ed wowbot raccogliendo milioni di finanziamenti e download di utenti, le persone hanno più opzioni che mai se vogliono provare a chattare con un bot per elaborare le loro emozioni tra gli appuntamenti di terapia o per fare un amico digitale durante una pandemia.


L'autoreThe Conversation

Laken Brooks, dottorando in inglese, University of Florida

Questo articolo è ripubblicato da The Conversation sotto una licenza Creative Commons. Leggi il articolo originale.

rompere

Libri correlati:

Il corpo tiene il punteggio: cervello, mente e corpo nella guarigione del trauma

di Bessel van der Kolk

Questo libro esplora le connessioni tra trauma e salute fisica e mentale, offrendo spunti e strategie per la guarigione e il recupero.

Clicca per maggiori informazioni o per ordinare

Il ragazzo, la talpa, la volpe e il cavallo

di Charlie Mackesy

Questo libro è una storia splendidamente illustrata che esplora i temi dell'amore, della speranza e della gentilezza, offrendo conforto e ispirazione a coloro che lottano con problemi di salute mentale.

Clicca per maggiori informazioni o per ordinare

Sollievo dall'ansia per gli adolescenti: abilità CBT essenziali e pratiche di consapevolezza per superare l'ansia e lo stress

di Regine Galanti

Questo libro offre strategie e tecniche pratiche per gestire l'ansia e lo stress, concentrandosi in particolare sui bisogni e sulle esperienze degli adolescenti.

Clicca per maggiori informazioni o per ordinare

Il corpo: una guida per gli occupanti

di Bill Bryson

Questo libro esplora le complessità del corpo umano, offrendo approfondimenti e informazioni su come funziona il corpo e su come mantenere la salute fisica e mentale.

Clicca per maggiori informazioni o per ordinare

Abitudini atomici: un modo semplice e comprovato per costruire buone abitudini e spezzare quelle cattive

di James Clear

Questo libro offre strategie pratiche per costruire e mantenere sane abitudini, concentrandosi sui principi della psicologia e delle neuroscienze.

Clicca per maggiori informazioni o per ordinare