test di Turing e ai 10 17

Pexels/Google Deepmind, CC BY-SA

Nel 1950, l’informatico britannico Alan Turing propose un metodo sperimentale per rispondere alla domanda: le macchine possono pensare? Ha suggerito che se un essere umano non fosse in grado di capire se sta parlando con una macchina artificialmente intelligente (AI) o con un altro essere umano dopo cinque minuti di domande, ciò dimostrerebbe che l’intelligenza artificiale ha un’intelligenza simile a quella umana.

Sebbene i sistemi di intelligenza artificiale fossero lontani dal superare il test di Turing durante la sua vita, egli ipotizzò questo

“[…] tra circa cinquant’anni sarà possibile programmare i computer […] per farli giocare così bene al gioco dell’imitazione che un interrogante medio non avrà più del 70% di possibilità di effettuare la giusta identificazione dopo cinque minuti di interrogatorio.

Oggi, a più di 70 anni dalla proposta di Turing, nessuna intelligenza artificiale è riuscita a superare con successo il test soddisfacendo le condizioni specifiche da lui delineate. Tuttavia, come alcuni titoli riflettere, alcuni sistemi si sono avvicinati molto.

Un recente esperimento ha testato tre grandi modelli linguistici, incluso GPT-4 (la tecnologia AI dietro ChatGPT). I partecipanti hanno trascorso due minuti chiacchierando con un’altra persona o con un sistema di intelligenza artificiale. All'intelligenza artificiale veniva chiesto di commettere piccoli errori di ortografia e di abbandonare il test se il tester diventava troppo aggressivo.


innerself iscriviti alla grafica


Con questo suggerimento, l’intelligenza artificiale ha fatto un buon lavoro ingannando i tester. Se abbinati a un bot AI, i tester potevano indovinare correttamente se stavano parlando con un sistema AI solo il 60% delle volte.

Considerati i rapidi progressi raggiunti nella progettazione dei sistemi di elaborazione del linguaggio naturale, potremmo vedere l’intelligenza artificiale superare il test originale di Turing entro i prossimi anni.

Ma imitare gli esseri umani è davvero un test efficace per l’intelligenza? E in caso negativo, quali sono alcuni parametri di riferimento alternativi che potremmo utilizzare per misurare le capacità dell’intelligenza artificiale?

Limitazioni del test di Turing

Mentre un sistema che supera il test di Turing ci dà alcuni prova che è intelligente, questo test non è un test decisivo di intelligenza. Un problema è che può produrre “falsi negativi”.

I grandi modelli linguistici odierni sono spesso progettati per dichiarare immediatamente che non sono umani. Ad esempio, quando fai una domanda a ChatGPT, spesso la sua risposta è preceduta dalla frase "come modello linguistico AI". Anche se i sistemi di intelligenza artificiale avessero la capacità di base di superare il test di Turing, questo tipo di programmazione annullerebbe tale capacità.

Il test rischia anche alcuni tipi di “falsi positivi”. Come il filosofo Ned Block sottolineato in un articolo del 1981, un sistema potrebbe plausibilmente superare il test di Turing semplicemente essendo codificato con una risposta simile a quella umana a qualsiasi possibile input.

Oltre a ciò, il test di Turing si concentra in particolare sulla cognizione umana. Se la cognizione dell’IA differisce da quella umana, un interrogatore esperto sarà in grado di trovare alcuni compiti in cui le IA e gli esseri umani differiscono nelle prestazioni.

Riguardo a questo problema, Turing ha scritto:

Questa obiezione è molto forte, ma almeno possiamo dire che se, ciononostante, si può costruire una macchina per giocare in modo soddisfacente al gioco dell'imitazione, non dobbiamo essere turbati da questa obiezione.

In altre parole, mentre il superamento del test di Turing è una buona prova che il sistema è intelligente, fallirlo non è una buona prova che il sistema lo è non intelligente.

Inoltre, il test non è una buona misura per stabilire se le IA siano coscienti, se possano provare dolore e piacere o se abbiano un significato morale. Secondo molti scienziati cognitivi, la coscienza implica un particolare insieme di abilità mentali, tra cui la memoria di lavoro, pensieri di ordine superiore e la capacità di percepire il proprio ambiente e modellare il modo in cui il proprio corpo si muove attorno ad esso.

Il test di Turing non risponde alla domanda se i sistemi di intelligenza artificiale siano o meno avere queste capacità.

Le crescenti capacità dell’intelligenza artificiale

Il test di Turing si basa su una certa logica. Cioè: gli esseri umani sono intelligenti, quindi tutto ciò che può effettivamente imitare gli umani è probabile che sia intelligente.

Ma questa idea non ci dice nulla sulla natura dell'intelligenza. Un modo diverso per misurare l’intelligenza dell’intelligenza artificiale implica pensare in modo più critico a cosa sia l’intelligenza.

Attualmente non esiste un singolo test in grado di misurare in modo autorevole l’intelligenza artificiale o umana.

A livello più ampio, possiamo pensare all'intelligenza come a capacità per raggiungere una serie di obiettivi in ​​ambienti diversi. I sistemi più intelligenti sono quelli che possono raggiungere una gamma più ampia di obiettivi in ​​una gamma più ampia di ambienti.

Pertanto, il modo migliore per tenere traccia dei progressi nella progettazione di sistemi di IA generici è valutarne le prestazioni in una varietà di compiti. I ricercatori dell’apprendimento automatico hanno sviluppato una serie di benchmark che fanno questo.

Ad esempio, GPT-4 lo era in grado di rispondere correttamente 86% delle domande nella comprensione linguistica multitasking massiva: un punto di riferimento che misura le prestazioni nei test a scelta multipla in una serie di materie accademiche di livello universitario.

Ha anche ottenuto un punteggio favorevole AgentBench, uno strumento in grado di misurare la capacità di un ampio modello linguistico di comportarsi come un agente, ad esempio, navigando sul Web, acquistando prodotti online e gareggiando nei giochi.

Il test di Turing è ancora attuale?

Il test di Turing è una misura dell'imitazione – della capacità dell'intelligenza artificiale di simulare il comportamento umano. I grandi modelli linguistici sono imitatori esperti, il che si riflette ora nel loro potenziale di superare il test di Turing. Ma l’intelligenza non è la stessa cosa dell’imitazione.

Esistono tanti tipi di intelligenza quanti sono gli obiettivi da raggiungere. Il modo migliore per comprendere l'intelligenza dell'intelligenza artificiale è monitorare i suoi progressi nello sviluppo di una serie di importanti capacità.

Allo stesso tempo, è importante non continuare a “cambiare i paletti” quando si tratta della questione se l’intelligenza artificiale sia intelligente. Poiché le capacità dell’intelligenza artificiale stanno migliorando rapidamente, i critici dell’idea di intelligenza artificiale sono costantemente alla ricerca di nuovi compiti che i sistemi di intelligenza artificiale potrebbero avere difficoltà a completare, solo per scoprire di aver saltato qualcosa. ancora un altro ostacolo.

In questo contesto, la questione rilevante non è se i sistemi di intelligenza artificiale siano intelligenti, ma più precisamente, cosa tipi di intelligenza che possono avere.The Conversation

Simone Goldstein, Professore associato, Dianoia Institute of Philosophy, Australian Catholic University, Università Cattolica Australiana ed Cameron Domenico Kirk-Giannini, Assistente alla cattedra di filosofia, Rutgers University

Questo articolo è ripubblicato da The Conversation sotto una licenza Creative Commons. Leggi il articolo originale.