i091hbdc
NicoElNino/Shutterstock

Il rilascio del chatbot avanzato ChatGPT nel 2022 ha fatto parlare tutti di intelligenza artificiale (AI). Le sue sofisticate capacità hanno amplificato le preoccupazioni per l'IA che diventa così avanzata che presto non saremmo stati in grado di controllarla. Ciò ha persino portato alcuni esperti e leader del settore ad avvertire che il tecnologia potrebbe portare all'estinzione umana.

Altri commentatori, invece, non erano convinti. Noam Chomsky, un professore di linguistica, ha liquidato ChatGPT come "plagio hi-tech".

Per anni sono stato rilassato riguardo alla prospettiva dell'impatto dell'IA sull'esistenza umana e sul nostro ambiente. Questo perché l'ho sempre pensato come un guida o consigliere per l'uomo. Ma la prospettiva che le IA prendano decisioni, esercitando il controllo esecutivo, è un'altra questione. Ed è uno che ora viene seriamente intrattenuto.

Uno dei motivi principali per cui non dovremmo lasciare che l'IA abbia il potere esecutivo è che manca completamente di emozione, che è cruciale per il processo decisionale. Senza emozione, empatia e una bussola morale, hai creato il perfetto psicopatico. Il sistema risultante può essere molto intelligente, ma mancherà del nucleo emotivo umano che gli consente di misurare le conseguenze emotive potenzialmente devastanti di una decisione altrimenti razionale.

Quando l'intelligenza artificiale prende il controllo esecutivo

È importante sottolineare che non dovremmo pensare all'IA solo come una minaccia esistenziale se dovessimo metterlo a capo degli arsenali nucleari. Non c'è sostanzialmente alcun limite al numero di posizioni di controllo da cui potrebbe esercitare danni inimmaginabili.


innerself iscriviti alla grafica


Considera, ad esempio, come l'IA può già identificare e organizzare le informazioni necessarie per costruire il tuo giardino d'inverno. Le attuali iterazioni della tecnologia possono guidarti efficacemente attraverso ogni passaggio della costruzione e prevenire molti errori del principiante. Ma in futuro, un'intelligenza artificiale potrebbe fungere da project manager e coordinare la costruzione selezionando gli appaltatori e pagandoli direttamente dal tuo budget.

L'intelligenza artificiale è già utilizzata praticamente in tutti i domini dell'elaborazione delle informazioni e dell'analisi dei dati - da modellare i modelli meteorologici a controllo di veicoli senza conducente a aiutare con le diagnosi mediche. Ma è qui che iniziano i problemi, quando lasciamo che i sistemi di intelligenza artificiale facciano il passaggio critico dal ruolo di consulente a quello di dirigente esecutivo.

Invece di limitarsi a suggerire rimedi ad a conti della società, e se a un'IA fosse dato il controllo diretto, con la possibilità di implementare procedure per il recupero dei debiti, effettuare bonifici bancari e massimizzare i profitti, senza limiti su come farlo. Oppure immagina un sistema di intelligenza artificiale che non fornisca solo a diagnosi basata sui raggi X, ma con il potere di prescrivere direttamente trattamenti o farmaci.

Potresti iniziare a sentirti a disagio per tali scenari - lo farei sicuramente. La ragione potrebbe essere la tua intuizione che queste macchine non hanno realmente "anime". Sono solo programmi progettati per digerire enormi quantità di informazioni per semplificare dati complessi in schemi molto più semplici, consentendo agli esseri umani di prendere decisioni con maggiore sicurezza. Non hanno – e non possono – avere emozioni, che sono intimamente legate ai sensi e agli istinti biologici.

Emozioni e morale

L'intelligenza emotiva è la capacità di gestire le nostre emozioni per superare lo stress, entrare in empatia e comunicare in modo efficace. Questo è probabilmente più importante nel contesto del processo decisionale rispetto alla sola intelligenza, perché la decisione migliore non è sempre quella più razionale.

È probabile che l'intelligenza, la capacità di ragionare e operare in modo logico, possa essere incorporata nei sistemi basati sull'intelligenza artificiale in modo che possano prendere decisioni razionali. Ma immagina di chiedere a una potente IA con capacità esecutive di farlo risolvere la crisi climatica. La prima cosa che potrebbe essere ispirata a fare è ridurre drasticamente la popolazione umana.

Questa deduzione non ha bisogno di molte spiegazioni. Noi umani siamo, quasi per definizione, la fonte dell'inquinamento in ogni sua possibile forma. L'umanità e il cambiamento climatico sarebbero risolti. Non è la scelta a cui verrebbero i decisori umani, si spera, ma un'intelligenza artificiale troverebbe le proprie soluzioni, impenetrabili e non ostacolate dall'avversione umana a causare danni. E se avesse il potere esecutivo, potrebbe non esserci nulla che gli impedisca di procedere.

9dfujyxp
 Dare a un'intelligenza artificiale la capacità di prendere decisioni esecutive nel controllo del traffico aereo potrebbe essere un errore. Gorodenkoff/Shutterstock

Scenari di sabotaggio

Che ne dici di sabotare sensori e monitor che controllano le aziende alimentari? Ciò potrebbe avvenire gradualmente all'inizio, spingendo i controlli appena oltre un punto critico in modo che nessun essere umano si accorga che i raccolti sono condannati. In determinati scenari, ciò potrebbe portare rapidamente alla carestia.

In alternativa, che ne dici di chiudere il controllo del traffico aereo a livello globale o semplicemente di far schiantare tutti gli aerei in volo in qualsiasi momento? Circa 22,000 aerei sono normalmente in volo contemporaneamente, il che si aggiunge a un potenziale bilancio di diversi milioni di vittime.

Se pensi che siamo lontani dall'essere in quella situazione, ripensaci. Le IA guidano già auto e pilotare aerei militari, autonomamente.

In alternativa, che ne dici di chiudere l'accesso ai conti bancari in vaste regioni del mondo, innescando disordini civili ovunque contemporaneamente? O spegnersi sistemi di riscaldamento controllati da computer in pieno inverno, o impianti di climatizzazione al culmine della calura estiva?

Insomma, un sistema di intelligenza artificiale non deve essere messo a capo delle armi nucleari per rappresentare una seria minaccia per l'umanità. Ma visto che siamo su questo argomento, se un sistema di intelligenza artificiale fosse abbastanza potente e intelligente, potrebbe trovare un modo per simulare un attacco a un paese con armi nucleari, innescando una rappresaglia avviata dall'uomo.

L'intelligenza artificiale potrebbe uccidere un gran numero di esseri umani? La risposta deve essere sì, in teoria. Ma questo dipende in gran parte dal fatto che gli umani decidano di dargli il controllo esecutivo. Non riesco davvero a pensare a niente di più terrificante di un'intelligenza artificiale che può prendere decisioni e ha il potere di implementarle.The Conversation

Circa l'autore

Guillaume Thierry, Professore di Neuroscienze Cognitive, Bangor University

Questo articolo è ripubblicato da The Conversation sotto una licenza Creative Commons. Leggi il articolo originale.