pericolo di ai 7 11
È improbabile che l'intelligenza artificiale schiavizzi l'umanità, ma potrebbe assumere molti aspetti della nostra vita. elenabs/iStock tramite Getty Images

L'ascesa di ChatGPT e di simili sistemi di intelligenza artificiale è stata accompagnata da un forte calo aumento dell'ansia per l'IA. Negli ultimi mesi, dirigenti e ricercatori sulla sicurezza dell'IA hanno offerto previsioni, soprannominate "P(destino)”, sulla probabilità che l'IA provochi una catastrofe su larga scala.

Le preoccupazioni hanno raggiunto il picco nel maggio 2023, quando è stata rilasciata l'organizzazione no profit di ricerca e difesa Center for AI Safety una dichiarazione di una frase: "Mitigare il rischio di estinzione dell'IA dovrebbe essere una priorità globale insieme ad altri rischi su scala sociale, come le pandemie e la guerra nucleare". La dichiarazione è stata firmata da molti attori chiave del settore, inclusi i leader di OpenAI, Google e Anthropic, nonché due dei cosiddetti "padrini" dell'IA: Geoffrey Hinton ed Yoshua Bengio.

Potresti chiedere come dovrebbero svolgersi tali paure esistenziali. Uno scenario famoso è il "massimizzatore di graffette"esperimento mentale articolato dal filosofo di Oxford Nick Bostrom. L'idea è che un sistema di intelligenza artificiale incaricato di produrre il maggior numero possibile di graffette potrebbe fare di tutto per trovare materie prime, come distruggere fabbriche e causare incidenti automobilistici.

A variazione meno dispendiosa in termini di risorse ha un'intelligenza artificiale incaricata di procurare una prenotazione a un famoso ristorante che chiude le reti cellulari e i semafori per impedire ad altri clienti di ottenere un tavolo.


innerself iscriviti alla grafica


Forniture per ufficio o cena, l'idea di base è la stessa: l'IA sta rapidamente diventando un'intelligenza aliena, brava a raggiungere obiettivi ma pericolosa perché non si allineerà necessariamente con i valori morali dei suoi creatori. E, nella sua versione più estrema, questo argomento si trasforma in ansie esplicite sulle IA schiavizzando o distruggendo la razza umana.

Un'IA impazzita che crea graffette è una variante dello scenario dell'apocalisse dell'IA.

 

Danno effettivo

Negli ultimi anni, io e i miei colleghi di Centro di etica applicata di UMass Boston hanno studiato l'impatto dell'impegno con l'IA sulla comprensione di se stessi da parte delle persone, e credo che queste ansie catastrofiche siano esagerato e mal indirizzato.

Sì, la capacità dell'intelligenza artificiale di creare video e audio deep-fake convincenti è spaventosa e può essere abusata da persone malintenzionate. In effetti, sta già accadendo: gli agenti russi probabilmente hanno tentato di mettere in imbarazzo i critici del Cremlino Bill Browder intrappolandolo in una conversazione con un avatar dell'ex presidente ucraino Petro Poroshenko. I criminali informatici hanno utilizzato la clonazione della voce AI per una varietà di crimini - da rapine ad alta tecnologia a truffe ordinarie.

Sistemi decisionali AI che offrire l'approvazione del prestito e raccomandazioni per l'assunzione comportano il rischio di pregiudizi algoritmici, poiché i dati di addestramento e i modelli decisionali su cui si basano riflettono pregiudizi sociali di lunga data.

Questi sono grossi problemi e richiedono l'attenzione dei responsabili politici. Ma sono in giro da un po' e non sono certo catastrofici.

Non nello stesso campionato

La dichiarazione del Center for AI Safety ha raggruppato l'IA con le pandemie e le armi nucleari come un grave rischio per la civiltà. Ci sono problemi con questo confronto. COVID-19 ha provocato quasi 7 milioni di morti in tutto il mondo, portato su a massiccia e continua crisi di salute mentale e creato sfide economiche, comprese le carenze croniche della catena di approvvigionamento e l'inflazione galoppante.

Armi nucleari probabilmente uccise più 200,000 persone a Hiroshima e Nagasaki nel 1945, hanno causato molte più vittime di cancro negli anni seguenti, hanno generato decenni di profonda ansia durante la Guerra Fredda e hanno portato il mondo sull'orlo dell'annientamento durante la crisi dei missili di Cuba nel 1962. Hanno anche cambiato i calcoli dei leader nazionali su come rispondere all'aggressione internazionale, come attualmente si sta svolgendo con l'invasione russa dell'Ucraina.

L'intelligenza artificiale è semplicemente lontana dall'ottenere la capacità di fare questo tipo di danno. Lo scenario della graffetta e altri simili sono fantascienza. Le applicazioni di intelligenza artificiale esistenti eseguono compiti specifici anziché formulare giudizi generali. La tecnologia è lungi dall'essere in grado di decidere e poi pianificare gli obiettivi e gli obiettivi subordinati necessari per chiudere il traffico per farti sedere in un ristorante o far saltare in aria una fabbrica di automobili per soddisfare la tua voglia di graffette.

Non solo la tecnologia manca della complicata capacità di giudizio multistrato che è coinvolta in questi scenari, ma non ha anche accesso autonomo a parti sufficienti della nostra infrastruttura critica per iniziare a causare quel tipo di danno.

Cosa significa essere umani

In realtà, c'è un pericolo esistenziale insito nell'uso dell'IA, ma quel rischio è esistenziale in senso filosofico piuttosto che apocalittico. L'intelligenza artificiale nella sua forma attuale può alterare il modo in cui le persone vedono se stesse. Può degradare abilità ed esperienze che le persone considerano essenziali per essere umani.

Ad esempio, gli esseri umani sono creature che giudicano. Le persone soppesano razionalmente i particolari e formulano giudizi quotidiani sul lavoro e nel tempo libero su chi assumere, chi dovrebbe ottenere un prestito, cosa guardare e così via. Ma sempre più di questi giudizi lo sono essere automatizzati e affidati ad algoritmi. Quando ciò accadrà, il mondo non finirà. Ma le persone perderanno gradualmente la capacità di formulare questi giudizi da sole. Meno ne fanno le persone, peggio è probabile che diventino nel realizzarle.

Oppure considera il ruolo del caso nella vita delle persone. Gli esseri umani apprezzano gli incontri fortuiti: imbattersi in un luogo, una persona o un'attività per caso, esserne attratti e apprezzare retrospettivamente il ruolo che l'incidente ha svolto in questi reperti significativi. Ma il ruolo dei motori di raccomandazione algoritmica è quello di ridurre quel tipo di serendipità e sostituirlo con pianificazione e previsione.

Infine, considera le capacità di scrittura di ChatGPT. La tecnologia è in procinto di eliminare il ruolo degli incarichi di scrittura nell'istruzione superiore. In tal caso, gli educatori perderanno uno strumento chiave per insegnare agli studenti come pensare in modo critico.

Non morto ma diminuito

Quindi no, l'intelligenza artificiale non farà saltare in aria il mondo. Ma il suo abbraccio sempre più acritico, in una varietà di contesti ristretti, significa la graduale erosione di alcune delle più importanti capacità umane. Gli algoritmi stanno già minando la capacità delle persone di esprimere giudizi, godere di incontri fortuiti e affinare il pensiero critico.

La specie umana sopravviverà a tali perdite. Ma il nostro modo di esistere si impoverirà nel processo. Le fantastiche ansie per l'imminente cataclisma dell'IA, la singolarità, Skynet o comunque tu possa pensarlo, oscurano questi costi più sottili. Ricordiamo le famose battute conclusive di TS Eliot di “Gli uomini vuoti": "Questo è il modo in cui il mondo finisce", ha scritto, "non con un botto ma un piagnucolio".The Conversation

Circa l'autore

Nir Eisikovits, Professore di Filosofia e Direttore, Centro di Etica Applicata, UMass Boston

Questo articolo è ripubblicato da The Conversation sotto una licenza Creative Commons. Leggi il articolo originale.