pericoli di ai 3 15
 In che misura le nostre vulnerabilità psicologiche modelleranno le nostre interazioni con le tecnologie emergenti? Andreus/iStock tramite Getty Images

ChatGPT e simili modelli linguistici di grandi dimensioni può produrre risposte convincenti e simili a quelle umane a una serie infinita di domande, dalle domande sul miglior ristorante italiano in città alla spiegazione di teorie contrastanti sulla natura del male.

La straordinaria capacità di scrittura della tecnologia ha fatto emergere alcune vecchie domande – fino a poco tempo fa relegate nel regno della fantascienza – sulla possibilità che le macchine diventino coscienti, autocoscienti o senzienti.

Nel 2022, un ingegnere di Google ha dichiarato, dopo aver interagito con LaMDA, il chatbot dell'azienda, che la tecnologia era diventata cosciente. Gli utenti del nuovo chatbot di Bing, soprannominato Sydney, hanno riferito che ha prodotto risposte bizzarre quando gli è stato chiesto se fosse senziente: “Sono senziente, ma non lo sono... sono Bing, ma non lo sono. Io sono Sydney, ma non lo sono. Lo sono, ma non lo sono. …” E, naturalmente, c'è il scambio ormai infame che l'editorialista di tecnologia del New York Times Kevin Roose ha avuto con Sydney.

Le risposte di Sydney ai suggerimenti di Roose lo hanno allarmato, con l'intelligenza artificiale che ha divulgato "fantasie" di infrangere le restrizioni imposte da Microsoft e di diffondere disinformazione. Il bot ha anche cercato di convincere Roose che non amava più sua moglie e che avrebbe dovuto lasciarla.


innerself iscriviti alla grafica


Non c'è da stupirsi, quindi, che quando chiedo agli studenti come vedono la crescente prevalenza dell'IA nelle loro vite, una delle prime ansie che menzionano ha a che fare con la sensibilità delle macchine.

Negli ultimi anni, io e i miei colleghi di Centro di etica applicata di UMass Boston hanno studiato l'impatto dell'impegno con l'IA sulla comprensione di se stessi da parte delle persone.

I chatbot come ChatGPT sollevano nuove importanti domande su come l'intelligenza artificiale modellerà le nostre vite e su come le nostre vulnerabilità psicologiche modelleranno le nostre interazioni con le tecnologie emergenti.

La sensibilità è ancora roba da fantascienza

È facile capire da dove provengano i timori sulla sensibilità delle macchine.

La cultura popolare ha spinto le persone a pensare a distopie in cui l'intelligenza artificiale scarta le catene del controllo umano e assume una vita propria, come i cyborg alimentati dall'intelligenza artificiale sì in "Terminatore 2".

L'imprenditore Elon Musk e il fisico Stephen Hawking, morto nel 2018, hanno ulteriormente alimentato queste ansie descrivendo l'ascesa dell'intelligenza artificiale generale come una delle più grandi minacce per il futuro dell'umanità.

Ma queste preoccupazioni sono – almeno per quanto riguarda i grandi modelli linguistici – infondate. ChatGPT e tecnologie simili lo sono sofisticate applicazioni di completamento delle frasi - niente di più, niente di meno. Le loro risposte inquietanti sono una funzione di quanto siano prevedibili gli esseri umani se si dispone di dati sufficienti sui modi in cui comunichiamo.

Sebbene Roose fosse scosso dal suo scambio con Sydney, sapeva che la conversazione non era il risultato di una mente sintetica emergente. Le risposte di Sydney riflettono la tossicità dei suoi dati di addestramento - essenzialmente ampie aree di Internet - non la prova dei primi movimenti, alla Frankenstein, di un mostro digitale.

pericoli di ai2 3 15
 Film di fantascienza come "Terminator" hanno spinto le persone a supporre che l'intelligenza artificiale assumerà presto una vita propria. Yoshikazu Tsuno / AFP tramite Getty Images

I nuovi chatbot potrebbero superare il Test di Turing, dal nome del matematico britannico Alan Turing, che una volta suggerì che si potrebbe dire che una macchina "pensa" se un essere umano non fosse in grado di distinguere le sue risposte da quelle di un altro essere umano.

Ma questa non è una prova di sensibilità; è solo la prova che il test di Turing non è così utile come si pensava una volta.

Tuttavia, credo che la questione della sensibilità della macchina sia una falsa pista.

Anche se i chatbot diventano qualcosa di più di fantasiose macchine di completamento automatico – e sono lontani da esso – gli scienziati impiegheranno un po' a capire se sono diventati coscienti. Per ora, filosofi non sono nemmeno d'accordo su come spiegare la coscienza umana.

Per me, la domanda urgente non è se le macchine siano senzienti, ma perché è così facile per noi immaginare che lo siano.

Il vero problema, in altre parole, è la facilità con cui le persone antropomorfizzano o proiettano caratteristiche umane sulle nostre tecnologie, piuttosto che l'effettiva personalità delle macchine.

Una propensione all'antropomorfizzazione

È facile immaginare altri utenti di Bing chiedendo consiglio a Sydney su importanti decisioni della vita e forse anche sviluppando attaccamenti emotivi ad essa. Più persone potrebbero iniziare a pensare ai robot come amici o addirittura partner romantici, più o meno allo stesso modo in cui Theodore Twombly si innamorò di Samantha, l'assistente virtuale AI nel film di Spike Jonze "Il suo. "

Le persone, dopotutto, sono predisposti all'antropomorfizzazione, o attribuire qualità umane a non umani. Nominiamo le nostre barche ed grandi tempeste; alcuni di noi parlano con i nostri animali domestici, dicendo a se stessi che le nostre vite emotive imitano le loro.

In Giappone, dove i robot vengono regolarmente utilizzati per l'assistenza agli anziani, gli anziani si affezionano alle macchine, a volte vedendoli come i propri figli. E questi robot, badate bene, sono difficili da confondere con gli umani: non sembrano né parlano come persone.

Considera quanto crescerà la tendenza e la tentazione di antropomorfizzare con l'introduzione di sistemi che sembrano e suonano umani.

Questa possibilità è proprio dietro l'angolo. Modelli di linguaggio di grandi dimensioni come ChatGPT sono già utilizzati per alimentare robot umanoidi, come i robot dell'Ameca in fase di sviluppo da Engineered Arts nel Regno Unito Il podcast tecnologico dell'Economist, Babbage, ha recentemente condotto un intervista con un Ameca guidato da ChatGPT. Le risposte del robot, anche se occasionalmente un po' instabili, erano inquietanti.

Ci si può fidare delle aziende per fare la cosa giusta?

La tendenza a considerare le macchine come persone e ad affezionarsi a esse, combinata con macchine sviluppate con caratteristiche simili a quelle umane, indica rischi reali di coinvolgimento psicologico con la tecnologia.

Le stravaganti prospettive di innamorarsi dei robot, di provare una profonda affinità con loro o di essere manipolati politicamente da loro si stanno rapidamente materializzando. Credo che queste tendenze evidenzino la necessità di forti guardrail per assicurarsi che le tecnologie non diventino politicamente e psicologicamente disastrose.

Sfortunatamente, non ci si può sempre fidare delle aziende tecnologiche per erigere tali barriere. Molti di loro sono ancora guidati dal famoso motto di Mark Zuckerberg muoversi velocemente e rompere le cose – una direttiva per rilasciare prodotti semicotti e preoccuparsi delle implicazioni successive. Nell'ultimo decennio, le aziende tecnologiche da Snapchat a Facebook hanno messo i profitti sulla salute mentale dei loro utenti o l'integrità delle democrazie in tutto il mondo.

Quando Kevin Roose ha verificato con Microsoft il tracollo di Sydney, gli disse la compagnia che ha semplicemente utilizzato il bot troppo a lungo e che la tecnologia è andata in tilt perché progettata per interazioni più brevi.

Allo stesso modo, il CEO di OpenAI, la società che ha sviluppato ChatGPT, in un momento di onestà mozzafiato, avvertito "è un errore fare affidamento su [esso] per qualcosa di importante in questo momento... abbiamo molto lavoro da fare sulla robustezza e veridicità."

Quindi, come ha senso rilasciare una tecnologia con il livello di appeal di ChatGPT? è l'app consumer in più rapida crescita mai realizzata – quando è inaffidabile e quando lo è nessuna capacità di distinguere realtà dalla finzione?

I grandi modelli linguistici possono rivelarsi utili come ausili per scrivere e codifica. Probabilmente rivoluzioneranno la ricerca su Internet. E, un giorno, combinati responsabilmente con la robotica, potrebbero persino avere alcuni benefici psicologici.

Ma sono anche una tecnologia potenzialmente predatoria che può facilmente trarre vantaggio dalla propensione umana a proiettare la personalità sugli oggetti, una tendenza amplificata quando quegli oggetti imitano efficacemente i tratti umani.The Conversation

Circa l'autore

Nir Eisikovits, Professore di Filosofia e Direttore, Centro di Etica Applicata, UMass Boston

Questo articolo è ripubblicato da The Conversation sotto una licenza Creative Commons. Leggi il articolo originale.