4rupi02z

R. Classen/Shutterstock

I chatbot basati sull’intelligenza artificiale sono già ampiamente utilizzati dalle aziende per accogliere i clienti e rispondere alle loro domande, sia al telefono che sui siti web. Alcune aziende hanno scoperto che possono, in una certa misura, sostituire gli esseri umani con le macchine nei ruoli dei call center.

Tuttavia, le prove disponibili suggeriscono che ci sono settori – come quello sanitario e delle risorse umane – in cui è necessario prestare estrema attenzione nell’uso di questi strumenti di prima linea e potrebbe essere necessario un controllo etico.

Un esempio recente e molto pubblicizzato è quello di a chatbot chiamato Tessa, utilizzato dal Associazione nazionale per i disturbi alimentari (NEDA) negli Stati Uniti. Inizialmente l'organizzazione aveva mantenuto una linea di assistenza gestita da una combinazione di dipendenti stipendiati e volontari. Questo aveva il preciso obiettivo di assistere le persone vulnerabili che soffrono di disturbi alimentari.

Tuttavia, quest'anno, l'organizzazione ha sciolto il personale della linea di assistenza, annunciando che li avrebbe sostituiti con il chatbot Tessa. Le ragioni di ciò sono controverse. Ex lavoratori affermano che il cambiamento è avvenuto in seguito alla decisione del personale della helpline di unirsi al sindacato. IL citato vicepresidente della NEDA un aumento del numero di chiamate e dei tempi di attesa, nonché delle responsabilità legali legate all’utilizzo di personale volontario.

In ogni caso, dopo un brevissimo periodo di attività, Tessa è stata messa offline dopo aver riferito che il chatbot aveva fornito consigli problematici che avrebbero potuto esacerbare i sintomi delle persone che cercavano aiuto per i disturbi alimentari.


innerself iscriviti alla grafica


È stato anche riferito che La dottoressa Ellen Fitzsimmons-Craft e il dottor C Barr Taylor, due ricercatori altamente qualificati che hanno contribuito alla creazione di Tessa, avevano stabilito che il chatbot non era mai stato inteso come sostituto di una linea di assistenza esistente o per fornire assistenza immediata a coloro che soffrivano di sintomi di disturbi alimentari intensi.

Aggiornamento significativo

Allora per cosa è stata progettata Tessa? I ricercatori, insieme ai colleghi, avevano generato un file studio osservazionale evidenziando le sfide che hanno dovuto affrontare nella progettazione di un chatbot basato su regole per interagire con utenti preoccupati per i disturbi alimentari. È una lettura piuttosto affascinante, che illustra scelte progettuali, operazioni, insidie ​​e modifiche.

La versione originale di Tessa era tradizionale, chatbot basato su regole, anche se altamente raffinato, ovvero che segue una struttura predefinita basata sulla logica. Non poteva discostarsi dalle risposte standardizzate pre-programmate calibrate dai suoi creatori.

La loro conclusione includeva il seguente punto: “I chatbot basati su regole hanno il potenziale per raggiungere vaste popolazioni a basso costo fornendo informazioni e interazioni semplici, ma sono limitati nel comprendere e rispondere in modo appropriato alle risposte impreviste degli utenti”.

Ciò potrebbe sembrare limitare gli usi per i quali Tessa era adatta. Allora come è finita per sostituire la linea di assistenza precedentemente utilizzata da NEDA? L'esatta catena degli eventi è in discussione tra diversi account, ma, secondo NPR, la società di hosting del chatbot ha cambiato Tessa da un chatbot basato su regole con risposte preprogrammate a uno con un "funzionalità avanzata di domande e risposte".

La versione successiva di Tessa utilizzava l'intelligenza artificiale generativa, proprio come ChatGPT e prodotti simili. Questi chatbot avanzati con intelligenza artificiale sono progettati per simulare modelli di conversazione umana con l'intenzione di fornire risposte più realistiche e utili. La generazione di queste risposte personalizzate si basa su grandi database di informazioni, che i modelli di intelligenza artificiale sono addestrati a “comprendere” attraverso una varietà di processi tecnologici: machine learning, apprendimento profondo ed elaborazione del linguaggio naturale.

Lezioni di apprendimento

Alla fine, il chatbot ha generato quelle che sono state descritte come risposte potenzialmente dannose alle domande di alcuni utenti. Le discussioni che ne sono seguite hanno spostato la colpa da un’istituzione all’altra. Tuttavia, resta il punto che le circostanze che ne sarebbero derivate avrebbero potuto essere potenzialmente evitate se ci fosse stato un organismo che fornisse supervisione etica, un "essere umano nel circuito" e un'adesione allo scopo chiaro del progetto originale di Tessa.

È importante imparare lezioni da casi come questo nel contesto di una corsa verso l’integrazione dell’intelligenza artificiale in una varietà di sistemi. E sebbene questi eventi abbiano avuto luogo negli Stati Uniti, contengono lezioni per coloro che cercano di fare lo stesso in altri paesi.

Il Regno Unito sembra avere un approccio piuttosto frammentato a questo problema. Il comitato consultivo del Centro per l'etica e l'innovazione dei dati (CDEI) è stato recentemente sciolto e il suo posto al tavolo è stato occupato dalla neonata Frontier AI Taskforce. Ci sono anche rapporti secondo cui i sistemi di intelligenza artificiale sono già in fase di sperimentazione a Londra come strumenti per aiutare i lavoratori, anche se non in sostituzione di una linea di assistenza.

Entrambi questi esempi evidenziano una potenziale tensione tra considerazioni etiche e interessi commerciali. Dobbiamo sperare che i due alla fine si allineino, bilanciando il benessere degli individui con l’efficienza e i benefici che l’intelligenza artificiale potrebbe fornire.

Tuttavia, in alcune aree in cui le organizzazioni interagiscono con il pubblico, le risposte generate dall’intelligenza artificiale e l’empatia simulata potrebbero non essere mai sufficienti a sostituire l’umanità e la compassione autentiche, in particolare nei settori della medicina e della salute mentale.The Conversation

Marco Tsagas, Docente, Diritto Penale, University of East London

Questo articolo è ripubblicato da The Conversation sotto una licenza Creative Commons. Leggi il articolo originale.