Hai mai chattato con un programma di intelligenza artificiale e ti sei chiesto se fosse effettivamente una persona fisica? Ammetto che sono stato attratto alcune volte, solo per poi rendermi conto che stavo conversando con un chatbot che si atteggiava a essere umano! Con i progressi nell’intelligenza artificiale, alcuni chatbot sono ora spaventosamente sofisticati, in grado di scrivere saggi, poesie e persino codici informatici che rivaleggiano con ciò che le persone creano.

Mi lascia infinitamente affascinato dalla rapidità con cui l’intelligenza artificiale sta progredendo. Siamo passati da programmi informatici di base che riuscivano a malapena a sostenere conversazioni semplicistiche all'intelligenza artificiale in grado di generare contenuti, consigli e idee ponderati quasi indistinguibili da quelli di un essere umano.

Quindi, con i chatbot più intelligenti che mai, i ricercatori hanno elaborato un esperimento per testare quanto queste IA corrispondano al pensiero e al processo decisionale umano. È stato ispirato dal classico "test di Turing" proposto anni fa dal pioniere dell'informatica Alan Turing. L'idea è che una persona comunichi con un chatbot e un essere umano reale e poi provi a determinare quale sia l'uno e l'altro. Se non riescono a distinguere in modo affidabile la differenza, ciò suggerisce che l’intelligenza artificiale ha effettivamente catturato comportamenti umani complessi.

Per questo nuovo esperimento, gli scienziati hanno lanciato una sfida creativa in stile Turing. Potrebbe un chatbot basato sull'intelligenza artificiale ingannare qualcuno facendogli credere che sia umano attraverso battute casuali e durante valutazioni psicologiche più complesse che misurano la personalità e le tendenze comportamentali? Quanto sono allineate le motivazioni dei chatbot all'avanguardia, i livelli di cooperazione, l'affidabilità e le decisioni rispetto a quelle di una persona?

I ricercatori hanno deciso di scoprirlo... e i risultati potrebbero sorprendervi!


innerself iscriviti alla grafica


Test di personalità per i bot

Hanno chiesto a diversi chatbot IA, comprese diverse versioni di ChatGPT, di svolgere un sondaggio sulla personalità e di giocare a giochi interattivi che rivelassero il comportamento umano: la nostra cooperazione, fiducia, correttezza, assunzione di rischi e così via. Quindi, i ricercatori hanno confrontato le mosse dei chatbot con le risposte di decine di migliaia di persone reali che hanno sostenuto questi test.

La grande sorpresa? Le scelte del chatbot rientravano per lo più nell’ambito delle risposte umane. In alcuni casi il loro comportamento era difficile da distinguere dalle scelte umane! Quando c’erano differenze, i chatbot con intelligenza artificiale tendevano ad agire in modo più cooperativo rispetto all’essere umano medio. Abbastanza selvaggio!

Più generosi degli esseri umani

Vedi, ogni test ha lo scopo di far emergere diversi aspetti della personalità o delle tendenze: non è la stessa cosa che chiedere a un'intelligenza artificiale di scrivere un saggio che sembri "umano". L'indagine mappa i tratti essenziali della personalità di qualcuno: apertura, coscienziosità e così via. Poi i giochi rivelano sfumature di comportamento: come ti comporti quando c'è in gioco il denaro? Collaborerai con un partner o penserai solo a te stesso?

Nei giochi, la maggior parte delle mosse dei chatbot corrispondeva strettamente alle risposte umane. Tuttavia, i loro comportamenti hanno mostrato meno varietà tra i round di gioco. Ciò ha senso poiché ogni "individuo" del chatbot è stato confrontato con decine di migliaia di persone reali. Ma è stato strabiliante che in alcuni giochi non sia possibile distinguere le scelte del chatbot da quelle di un essere umano in base alle statistiche!

E quando le differenze sono emerse, non è stato casuale. I chatbot si sono rivelati più generosi: pensa ad avere più fiducia in un partner in un gioco di investimento o a chiedere meno soldi come chi propone una divisione in un altro gioco.

I giocatori dell'IA si preoccupavano dei risultati per entrambe le parti piuttosto che solo per se stessi. L'analisi delle motivazioni dei chatbot suggerisce che si comportano come se stessero cercando di massimizzare il profitto totale per se stessi e per il proprio partner di gioco.

Imparare dall'esperienza

Oltre a giocare direttamente ai giochi, i ricercatori hanno provato altri modi per imitare il comportamento umano naturale, come cambiare il contesto o inquadrare le scelte. E, come per le persone, piccole modifiche potrebbero cambiare radicalmente le strategie dei chatbot! Ad esempio, dire a qualcuno che veniva osservato lo rendeva molto più generoso.

Il team ha anche scoperto che i giocatori dell’intelligenza artificiale cambiano comportamento dopo aver sperimentato i round precedenti, il che sembra un apprendimento umano. Nel tempo, i loro approcci rispondono a diversi scenari di gioco.

Inquietantemente umano o intrigantemente realistico?

E per finire, le diverse versioni di chatbot hanno mostrato tratti distinti durante i test, suggerendo personalità uniche come te e me! È stato notevole come, in alcuni casi, i chatbot mostrassero tendenze coerenti che li distinguevano, proprio come le personalità umane hanno peculiarità che rendono ognuno di noi diverso. Un chatbot potrebbe essere più cauto o competitivo, mentre un altro si è rivelato più generoso e desideroso di collaborare.

Vedere l’intelligenza artificiale imitare il pensiero umano e le complessità del processo decisionale ha suscitato molti dibattiti. Alcuni trovano inquietante quando le macchine sembrano comportarsi troppo come le persone, come i chatbot che creano poesie originali o hanno le proprie prospettive sulla moralità. Quanti più ruoli diamo all’intelligenza artificiale nel settore sanitario, dell’istruzione, degli affari e altro ancora, tanto più importante è il loro giudizio.

Allo stesso tempo, c’è qualcosa di affascinante nel fatto che l’intelligenza artificiale mostri barlumi di comportamenti dinamici e riflessivi come quelli che vediamo nelle persone. Comprendere meglio queste tendenze significa che possiamo anticipare come potrebbero agire gli assistenti IA, i robot di servizio e altri, il che crea maggiore fiducia. Test come farli partecipare a sondaggi e giocare a giochi comportamentali aiutano a rivelare i loro processi di pensiero "scatola nera".

Una cosa è certa nel mio libro: il confine tra il ragionamento artificiale e quello umano diventa sempre più sottile e sfumato! Cosa ne pensi delle macchine che adottano le proprie versioni dei tratti e delle qualità umane? Siamo a nostro agio nel garantire all’IA un giudizio più indipendente o è troppo simile alla creazione di una nuova forma di quasi-vita?

L'autore

JenningsRobert Jennings è co-editore di InnerSelf.com con sua moglie Marie T Russell. Ha frequentato l'Università della Florida, il Southern Technical Institute e l'Università della Florida centrale con studi in materia immobiliare, sviluppo urbano, finanza, ingegneria architettonica e istruzione elementare. Era un membro del Corpo dei Marines degli Stati Uniti e dell'esercito degli Stati Uniti avendo comandato una batteria di artiglieria da campo in Germania. Ha lavorato nella finanza immobiliare, costruzione e sviluppo per 25 anni prima di fondare InnerSelf.com nel 1996.

InnerSelf è dedicato alla condivisione di informazioni che consentono alle persone di fare scelte consapevoli e perspicaci nella loro vita personale, per il bene dei beni comuni e per il benessere del pianeta. InnerSelf Magazine è nel suo 30+ anno di pubblicazione su carta stampata (1984-1995) o online come InnerSelf.com. Si prega di sostenere il nostro lavoro.

 Creative Commons 4.0

Questo articolo è concesso in licenza sotto licenza Creative Commons Attribuzione-Condividi allo stesso modo 4.0. Attribuire l'autore Robert Jennings, InnerSelf.com. Link all'articolo Questo articolo è originariamente apparso su InnerSelf.com