catGPT
Un gruppo di eminenti scienziati informatici e altri notabili del settore tecnologico chiedono una pausa di sei mesi sulla tecnologia dell'intelligenza artificiale. (Shutterstock)

Una recente lettera aperta di scienziati informatici e leader del settore tecnologico chiedendo un divieto di sei mesi sullo sviluppo dell'intelligenza artificiale ha ha ricevuto un'attenzione diffusa online. Anche il ministro canadese per l'innovazione François-Philippe Champagne ha risposto alla lettera su Twitter.

La lettera, pubblicata dal Future of Life Institute senza scopo di lucro, ha chiesto a tutti i laboratori di intelligenza artificiale di interrompere l'addestramento di sistemi di intelligenza artificiale più potenti di GPT-4, il modello alla base di ChatGPT. La lettera sostiene che l'intelligenza artificiale è stata "bloccata in una corsa fuori controllo per sviluppare e distribuire menti digitali sempre più potenti che nessuno, nemmeno i loro creatori, può comprendere, prevedere o controllare in modo affidabile".

La lettera presuppone che l'IA stia diventando, o potrebbe diventare, "potenti menti digitali" - a interpretazione a lungo termine dello sviluppo dell'IA che ignora importanti dibattiti sull'IA oggi al posto delle preoccupazioni future.

Lungotermismo e IA

Il longtermismo è il convinzione che l'intelligenza artificiale ponga rischi a lungo termine o esistenziali per il futuro dell'umanità diventando una superintelligenza fuori controllo.


innerself iscriviti alla grafica


Le preoccupazioni per le IA superintelligenti sono di solito roba da fantascienza. Fantasie AI sono una delle tante paure nella Silicon Valley che può portare a oscure profezie. Ma come il Meme Torment Nexus, queste preoccupazioni si traducono in grandi investimenti e non in cautela. La maggior parte delle principali aziende tecnologiche lo ha fatto tagliare i loro team di IA responsabili.

ChatGPT ovviamente non è un percorso verso la superintelligenza. La lettera aperta vede la tecnologia del linguaggio AI come ChatGPT come una svolta cognitiva, qualcosa che consente a un'IA di competere con gli umani in compiti generali. Ma questa è solo un'opinione.

Ce ne sono molti altri che vedono ChatGPT, il suo modello GPT-4 e altri modelli di apprendimento delle lingue come “pappagalli stocastici” che semplicemente ripetono ciò che imparano online così loro apparire intelligente per l'uomo.

I punti ciechi della superintelligenza

Il lungo termine ha implicazioni politiche dirette che danno la priorità alla superintelligenza rispetto a questioni più urgenti come Gli squilibri di potere dell'IA. Alcuni sostenitori del lungo termine persino considerare la regolamentazione per fermare la superintelligenza più urgente che affrontare l'emergenza climatica.

Le implicazioni della politica dell'IA sono questioni immediate, non lontane. Poiché GPT-4 è addestrato su Internet e ha fini espressamente commerciali, solleva interrogativi sul fair dealing e sul fair use.

Non sappiamo ancora se i testi e le immagini generati dall'intelligenza artificiale siano protetti da copyright in primo luogo, poiché macchine e animali non può detenere il copyright.

E quando si tratta di questioni di privacy, l'approccio di ChatGPT è difficile da distinguere da un'altra applicazione AI, chiara visione AI. Entrambi i modelli di intelligenza artificiale sono stati addestrati utilizzando enormi quantità di informazioni personali raccolte su Internet aperto. L'autorità italiana per la protezione dei dati ha appena bandito ChatGPT per motivi di privacy.

Questi rischi immediati non vengono menzionati nella lettera aperta, che oscilla tra filosofia selvaggia e soluzioni tecniche, ignorando le questioni che abbiamo davanti.

Annegare il pragmatismo

La lettera segue una vecchia dinamica che io e il mio coautore identifichiamo in a prossimo capitolo sottoposto a revisione paritaria sulla governance dell'IA. C'è la tendenza a vedere l'IA come un rischio esistenziale o qualcosa di banale e tecnico.

La tensione tra questi due estremi è evidente nella lettera aperta. La lettera inizia affermando che "l'IA avanzata potrebbe rappresentare un profondo cambiamento nella storia della vita sulla Terra" prima di chiedere "un solido finanziamento pubblico per la ricerca tecnica sulla sicurezza dell'IA". Quest'ultimo suggerisce che i danni sociali dell'IA sono solo progetti tecnici da risolvere.

L'attenzione a questi due estremi spiazza le voci importanti che cercano di discutere in modo pragmatico i rischi immediati dell'IA menzionati sopra così come questioni lavorative e non solo.

L'attenzione data alla lettera aperta è particolarmente problematica in Canada perché altre due lettere, scritte da artisti ed organizzazioni per le libertà civili, non hanno ricevuto la stessa attenzione. Queste lettere chiedono riforme e un approccio più solido alla governance dell'IA per proteggere coloro che ne sono interessati.

Una distrazione non necessaria verso la legislazione sull'IA

Le risposte del governo alla lettera aperta hanno sottolineato che il Canada ha una legislazione - la legge sull'intelligenza artificiale e i dati (AIDA). I rischi a lungo termine dell'intelligenza artificiale vengono utilizzati per affrettare la legislazione ora come AIDA.

AIDA è un passo importante verso un adeguato regime di governance dell'IA, ma è necessario meglio consultare le persone colpite dall'IA prima di essere attuato. Non può essere affrettato a rispondere alle paure percepite a lungo termine.

Gli appelli della lettera ad affrettare la legislazione sull'IA potrebbero finire per avvantaggiare le stesse poche aziende che oggi guidano la ricerca sull'IA. Senza tempo per consultarsi, migliorare l'alfabetizzazione pubblica e ascoltare coloro che sono colpiti dall'IA, AIDA rischia di trasferire la responsabilità e l'audit dell'IA a istituzioni già ben posizionate per beneficiare della tecnologia, creando un mercato per una nuova industria di audit dell'IA.

Il destino dell'umanità potrebbe non essere in gioco, ma il buon governo dell'IA lo è certamente.The Conversation

Circa l'autore

Fenwick McKelvey, professore associato in Politica delle tecnologie dell'informazione e della comunicazione, Concordia University

Questo articolo è ripubblicato da The Conversation sotto una licenza Creative Commons. Leggi il articolo originale.