confidando ai 7 20
 I chatbot AI stanno diventando più potenti, ma come fai a sapere se stanno lavorando nel tuo migliore interesse? 

Se chiedi ad Alexa, il sistema di intelligenza artificiale dell'assistente vocale di Amazon, se Amazon è un monopolio, risponde dicendo che non lo sa. Non ci vuole molto per realizzarlo criticare gli altri giganti della tecnologia, ma tace sui misfatti del suo genitore aziendale.

Quando Alexa risponde in questo modo, è ovvio che sta mettendo gli interessi del suo sviluppatore davanti ai tuoi. Di solito, però, non è così ovvio a chi serve un sistema di intelligenza artificiale. Per evitare di essere sfruttate da questi sistemi, le persone dovranno imparare ad avvicinarsi all'IA in modo scettico. Ciò significa costruire deliberatamente l'input che gli dai e pensare in modo critico al suo output.

Le nuove generazioni di modelli di intelligenza artificiale, con le loro risposte più sofisticate e meno meccaniche, stanno rendendo più difficile stabilire chi tragga vantaggio quando parlano. La manipolazione da parte delle società di Internet di ciò che vedi per servire i propri interessi non è una novità. I risultati di ricerca di Google e il tuo feed di Facebook lo sono pieno di voci a pagamento. Facebook, TikTok e altri manipolano i tuoi feed per massimizzare il tempo che trascorri sulla piattaforma, il che significa più visualizzazioni di annunci, rispetto al tuo benessere.

Ciò che distingue i sistemi di intelligenza artificiale da questi altri servizi Internet è quanto sono interattivi e come queste interazioni diventeranno sempre più simili alle relazioni. Non ci vuole molta estrapolazione dalle tecnologie odierne per immaginare IA che pianificheranno viaggi per te, negozieranno per tuo conto o agiranno come terapisti e life coach.


innerself iscriviti alla grafica


È probabile che stiano con te 24 ore su 7, XNUMX giorni su XNUMX, ti conoscano intimamente e siano in grado di anticipare le tue esigenze. Questo tipo di interfaccia conversazionale alla vasta rete di servizi e risorse sul Web rientra nelle capacità delle IA generative esistenti come ChatGPT. Sono sulla buona strada per diventare assistenti digitali personalizzati.

Come un esperto di sicurezza ed scienziato di dati, crediamo che le persone che si affidano a queste IA dovranno fidarsi implicitamente di loro per navigare nella vita quotidiana. Ciò significa che dovranno essere sicuri che le IA non lavorino segretamente per qualcun altro. Su Internet, dispositivi e servizi che sembrano funzionare per te lavorano già segretamente contro di te. Smart TV spiarti. App per telefono raccogliere e vendere i tuoi dati. Molte app e siti web manipolarti attraverso schemi oscuri, elementi di design che deliberatamente fuorviare, costringere o ingannare i visitatori del sito web. Questo è capitalismo di sorveglianza, e l'IA si preannuncia per farne parte. L'intelligenza artificiale sta giocando un ruolo nel capitalismo della sorveglianza, che si riduce a spiarti per fare soldi con te.

Nell'oscurità

Molto probabilmente, potrebbe essere molto peggio con l'IA. Affinché quell'assistente digitale AI sia veramente utile, dovrà conoscerti davvero. Meglio del tuo telefono ti conosce. Meglio della ricerca di Google ti conosce. Meglio, forse, di quanto ti conoscano i tuoi amici intimi, i partner intimi e il terapeuta.

Non hai motivo di fidarti dei principali strumenti di IA generativa di oggi. Lascia da parte il allucinazioni, i "fatti" inventati che GPT e altri modelli di linguaggio di grandi dimensioni producono. Prevediamo che questi verranno in gran parte ripuliti man mano che la tecnologia migliora nei prossimi anni.

Ma non sai come sono configurate le IA: come sono state addestrate, quali informazioni hanno ricevuto e quali istruzioni hanno ricevuto l'ordine di seguire. Ad esempio, i ricercatori scoperto le regole segrete che regolano il comportamento del chatbot di Microsoft Bing. Sono in gran parte benigni ma possono cambiare in qualsiasi momento.

Fare soldi

Molte di queste IA vengono create e addestrate con enormi spese da alcuni dei più grandi monopoli tecnologici. Vengono offerti alle persone per l'uso gratuito oa un costo molto basso. Queste aziende dovranno in qualche modo monetizzarle. E, come con il resto di Internet, è probabile che in qualche modo includa sorveglianza e manipolazione.

Immagina di chiedere al tuo chatbot di pianificare la tua prossima vacanza. Ha scelto una particolare compagnia aerea o catena alberghiera o ristorante perché era la migliore per te o perché il suo produttore ha ricevuto una tangente dalle aziende? Come per i risultati a pagamento nella ricerca di Google, gli annunci di feed di notizie su Facebook e i posizionamenti a pagamento nelle query di Amazon, è probabile che queste influenze a pagamento diventino più surrettizie nel tempo.

Se stai chiedendo al tuo chatbot informazioni politiche, i risultati sono distorti dalla politica della società proprietaria del chatbot? O il candidato che ha pagato di più? O anche le opinioni dei dati demografici delle persone i cui dati sono stati utilizzati per addestrare il modello? Il tuo agente di intelligenza artificiale è segretamente un doppio agente? Al momento, non c'è modo di saperlo.

Affidabile per legge

Crediamo che le persone dovrebbero aspettarsi di più dalla tecnologia e che le aziende tecnologiche e le IA possano diventare più affidabili. La proposta dell'Unione Europea Legge sull'IA adotta alcune misure importanti, richiedendo trasparenza sui dati utilizzati per addestrare i modelli di intelligenza artificiale, mitigazione di potenziali pregiudizi, divulgazione di rischi prevedibili e report sui test standard del settore. L'Unione Europea sta portando avanti la regolamentazione dell'IA.

La maggior parte delle IA esistenti non rispettare con questo mandato europeo emergente, e, nonostante recente sollecitazione dal leader della maggioranza al Senato Chuck Schumer, gli Stati Uniti sono molto indietro su tale regolamentazione.

Le IA del futuro dovrebbero essere affidabili. A meno che e fino a quando il governo non fornisca una solida protezione dei consumatori per i prodotti di intelligenza artificiale, le persone saranno sole a indovinare i potenziali rischi e i pregiudizi dell'IA e a mitigare i loro peggiori effetti sulle esperienze delle persone con loro.

Quindi, quando ricevi una raccomandazione di viaggio o informazioni politiche da uno strumento di intelligenza artificiale, affrontalo con lo stesso occhio scettico con cui faresti un cartellone pubblicitario o un volontario della campagna. Nonostante tutta la sua magia tecnologica, lo strumento AI potrebbe essere poco più che lo stesso.The Conversation

Circa l'autore

Bruce Schneier, Docente a contratto in Politiche pubbliche, Harvard Kennedy School ed Nathan Sander, affiliato, Berkman Klein Center for Internet & Society, Università di Harvard

Questo articolo è ripubblicato da The Conversation sotto una licenza Creative Commons. Leggi il articolo originale.