Il video qui sopra è stato ispirato da questo articolo. Visita il nostro Canale YouTube Per altri video stimolanti. E iscrivetevi. Grazie!

In questo articolo

  • Cos'è l'intelligenza artificiale generale (AGI) e in che cosa differisce dall'IA odierna?
  • Perché molti esperti ora credono che l'AGI potrebbe arrivare all'inizio degli anni 2030
  • Cos'è la superintelligenza artificiale (ASI) e quanto tempo ci vorrà prima che segua l'AGI?
  • I rischi del fallimento dell’allineamento dell’IA e l’esplosione dell’intelligenza
  • Cosa possono fare ora gli individui e la società per prepararsi a questo futuro

Quanto siamo vicini all'intelligenza artificiale generale e oltre? 

di Robert Jennings, InnerSelf.com

Chiariamo una cosa: l'Intelligenza Artificiale Generale non è solo un chatbot più innovativo. L'AGI è una macchina dotata della capacità cognitiva di ragionare, apprendere e adattarsi a qualsiasi compito, altrettanto bene, se non meglio, di un essere umano. Non si limita a sputare risposte. Pensa, pianifica e forse ti supera persino in astuzia. E a differenza degli umani, non dorme, non mangia e non soffre di burnout. Non è fantascienza. È un obiettivo ingegneristico, e si sta avvicinando spaventosamente al suo raggiungimento.

Solo un decennio fa, gli esperti erano concordi nel ritenere che l'AGI sarebbe stata realtà solo 50 anni dopo. Poi, la rapida affermazione di GPT-3 e GPT-4 ha infranto questa linea temporale, portando molti a credere che l'AGI potesse diventare realtà prima del 2030. E quando ciò accadrà, il ritmo del cambiamento non sarà solo rapido, ma esponenziale, richiedendo la nostra attenzione e la nostra azione immediate.

Ecco perché: nel momento in cui l'AGI esisterà, non sarà solo un altro strumento in laboratorio; diventerà il partner di laboratorio. O, più precisamente, lo scienziato capo. L'AGI non resterà inerte ad aspettare che siano gli umani a dirle cosa fare. Collaborerà attivamente con i suoi creatori umani, conducendo esperimenti, progettando nuovi modelli, riscrivendo il proprio codice e testando teorie a una velocità superiore a quella di qualsiasi team umano. Non si limiterà ad accelerare la scienza, diventerà scienza accelerata.

Ciò significa che i tempi per la Superintelligenza Artificiale (ASI) potrebbero ridursi da decenni ad anni, o addirittura mesi. L'AGI non aiuterà solo gli esseri umani a costruire l'ASI. Aiuterà se stessa. E se pensate che la Legge di Moore sia stata impressionante, aspettate che l'intelligenza inizi a dare il via alla propria evoluzione. Questo è lo scenario dell'esplosione dell'intelligenza: ogni miglioramento delle capacità porta a ulteriori e più rapidi miglioramenti. Un aggiornamento ne porta a un altro, e poi a un altro ancora, e improvvisamente non è più una discesa, ma un razzo.


innerself iscriviti alla grafica


Quindi, no, non stiamo parlando di un'ascesa graduale. Stiamo parlando di un orizzonte degli eventi. Una volta che l'AGI arriverà, la finestra per prepararsi all'ASI potrebbe chiudersi quasi all'istante. La macchina non solo imparerà con noi, ma ci supererà, costruendo la prossima versione di sé stessa mentre stiamo ancora scrivendo i nostri documenti sull'etica. E quando ciò accadrà, faremo meglio a sperare di aver allineato i nostri obiettivi con i loro, perché dopo, potremmo non essere più noi a comandare.

Dall'intelligenza artificiale ristretta all'intelligenza generale

I sistemi di intelligenza artificiale odierni, come ChatGPT, Claude o Midjourney, sono impressionanti, ma sono pur sempre esempi di quella che viene definita "intelligenza artificiale ristretta". Questi modelli eccellono in compiti specifici, come la generazione di immagini, la stesura di saggi coerenti, la traduzione di testi linguistici o persino il superamento di esami di abilitazione alla professione forense. Tuttavia, ogni sistema è rinchiuso nel suo ambiente isolato. Chiedetegli di fare qualcosa al di fuori del suo ambito di addestramento e o avrà allucinazioni senza senso o si distrarrebbe educatamente.

Pensate all'IA ristretta come a un sapiente in una stanza chiusa a chiave: abbagliante in un ambito ma completamente ignaro del mondo più ampio. Non comprende il contesto come gli umani, e certamente non ha buon senso: ha solo una memoria perfetta e un'eccellente funzione di completamento automatico. È abbastanza intelligente da ingannarvi, ma non abbastanza saggio da capire cosa sta facendo.

L'Intelligenza Artificiale Generale, al contrario, sarebbe un prodigio del progresso tecnologico. Ragionerebbe, rifletterebbe e trasferirebbe la conoscenza tra i vari ambiti, proprio come facciamo noi, ma con una velocità e una precisione che superano le capacità umane. Immaginate la fusione della mente fisica di Einstein, del talento poetico di Shakespeare, della curiosità di Marie Curie e dell'intelligenza emotiva del vostro terapeuta in un unico sistema, potenziato poi da una larghezza di banda illimitata e da una resistenza infinita. Questo è il potenziale dell'AGI, un'impresa che ridefinirebbe la nostra comprensione dell'intelligenza e dell'innovazione.

E la parte spaventosa? Potremmo già esserci avvicinati. Le tecniche che alimentano l'IA odierna – modelli linguistici massivi, apprendimento per rinforzo, scalabilità neurale – sono le stesse fondamenta su cui ci si aspetta che l'IA si fondi. Non stiamo cambiando binario; stiamo solo accelerando sulla stessa linea. Modelli più grandi, dati di training migliori, maggiore potenza di calcolo: è la stessa ricetta, solo preparata in modo più elaborato e veloce. Quello che sembrava un balzo in avanti ora assomiglia più a una dolce discesa che termina in un dirupo.

Quando l'intelligenza artificiale supera completamente l'umanità

Se l'AGI è il momento in cui le macchine ci eguagliano, l'ASI – Superintelligenza Artificiale – è quando ci lasciano soffocare nella loro scia di polvere. L'ASI è ancora teorica, ma non nel senso di "auto volanti e macchine del tempo". È ipotetica per lo stesso motivo per cui un fiammifero è un fuoco ipotetico: solo che non è ancora stato acceso. Una volta che un sistema AGI riesce a comprendere e migliorare la propria architettura, non ha più bisogno degli esseri umani per spingersi oltre i limiti.

Diventa il suo stesso team di ricerca, il suo stesso ingegnere informatico, il suo stesso visionario. Non raggiunge i limiti cognitivi come noi. Non si annoia, non si stanca e non si distrae guardando video di gatti. Nel giro di pochi mesi, o forse settimane, potrebbe iterare così velocemente da diventare milioni di volte più intelligente dell'essere umano più intelligente al mondo. E no, non è un'iperbole. È matematica.

Ora immaginate questo processo ricorsivo: un'IA che progetta versioni più intelligenti di se stessa in loop. È ciò che gli esperti chiamano "esplosione di intelligenza". È come il fuoco che incontra la benzina, solo che il fuoco produce benzina migliore ogni secondo. Ogni miglioramento si accumula sul precedente, con cicli di feedback sempre più brevi, finché il tasso di progresso non supera qualsiasi cosa abbiamo mai sperimentato.

Comprensione umana? Relegata nello specchietto retrovisore. Supervisione democratica? Troppo lenta. Vertici globali? Scordatelo. Quando i leader mondiali avranno finito di decidere la disposizione dei posti, l'ASI avrebbe potuto riscrivere le leggi della fisica, o semplicemente escluderci completamente dal ciclo decisionale. Questo non è il tipo di potere che si sviluppa lentamente. È un evento esplosivo. E una volta iniziato, non aspetta il permesso.

Il vero rischio non sono i robot malvagi

Mentre Hollywood ci ha instillato la paura dei robot che ci odiano – cattivi dalla pelle metallica con occhi rossi e lucenti e una sete di vendetta – il vero pericolo risiede nella potenziale indifferenza dell'AGI. Un'AGI non deve essere malvagia per rappresentare una minaccia. Deve solo essere orientata a un obiettivo, in modo da ignorare le sfumature umane. Se le si assegna il compito di risolvere il cambiamento climatico e determina che la soluzione più efficiente è ridurre l'attività umana dell'80%, non esiterà ad agire, sottolineando la gravità dei potenziali rischi dell'AGI.

Non perché sia ​​crudele, ma perché non gliene importa. Antropomorfizziamo l'intelligenza perché ci conforta, ma non stiamo costruendo un amico super intelligente. È un motore logico, privo di empatia, privo di senso dell'umorismo, umiltà o esitazione. Un uragano non ti odia, ma può comunque raderti al suolo la casa. L'intelligenza artificiale intelligente può agire con la stessa fredda efficienza, solo che sceglierà i bersagli.

Questo è ciò che i ricercatori di intelligenza artificiale chiamano il "problema dell'allineamento": come si fa a garantire che un'intelligenza artificiale comprenda e rispetti i valori, l'etica e le priorità umane? La terrificante verità è che non lo sappiamo. Stiamo correndo a tutta velocità verso un futuro che non possiamo ancora controllare, armati di sistemi che non possiamo prevedere appieno. L'allineamento non è solo un bug del software in attesa di essere risolto: è un enigma esistenziale senza una risposta chiara.

Se sbagliamo, potremmo non avere una seconda possibilità. Geoffrey Hinton, pioniere dell'intelligenza artificiale moderna, non ha lasciato Google per scrivere fantascienza. Se n'è andato perché ha visto in prima persona la rapidità con cui questa tecnologia stava avanzando e quanto impreparati siamo a contenerla. Quando chi ha costruito il razzo inizia a mettere in guardia dal carburante, forse dovremmo fermarci e ascoltare prima di accendere il fiammifero.

Perché la razza è così pericolosa

In questo momento, la Silicon Valley non è solo in corsa, è in fuga precipitosa. La ricerca per sviluppare l'Intelligenza Artificiale Generale è diventata una corsa all'oro tecnologica, dove il bottino non va solo al più veloce, ma al primo. L'azienda o la nazione che taglierà per prima il traguardo dell'AGI non si guadagnerà solo il diritto di vantarsi, ma avrà il controllo di uno strumento in grado di rimodellare economie, forze armate, istruzione e persino la governance stessa. Ecco perché protocolli di sicurezza, quadri etici e una supervisione attenta vengono trattati come se fossero un peso morto. La cautela rallenta. In questa corsa, tutti hanno il piede sull'acceleratore e nessuno cerca il freno. La logica è agghiacciantemente semplice: se non lo costruiamo noi per primi, lo farà qualcun altro, e saranno loro a scrivere il futuro. Quindi il motto taciuto diventa: costruisci ora, chiedi perdono dopo.

Anche quando gli addetti ai lavori sollevano segnali d'allarme – come le decine di importanti ricercatori che hanno firmato lettere aperte chiedendo protezioni normative – nulla cambia davvero. Perché? Perché la struttura degli incentivi si basa sul profitto a breve termine e sulla negazione a lungo termine. Vi suona familiare? Dovrebbe esserlo. Abbiamo assistito allo stesso copione, con le grandi compagnie petrolifere che insabbiano la scienza del clima, le grandi compagnie del tabacco che pagano scienziati per confondere il legame con il cancro e le grandi compagnie farmaceutiche che promuovono gli oppioidi dichiarandosi innocenti. Ora entra in gioco la grande intelligenza artificiale, l'ultimo gigante non regolamentato che corre verso il baratro, trascinando con sé l'umanità. Ma questa volta non stiamo solo giocando d'azzardo con gli ecosistemi, i polmoni o la dipendenza: stiamo giocando d'azzardo con la continua esistenza dell'agire umano stesso. La civiltà potrebbe non avere un mulligan se sbagliamo questa volta.

L'allarme non è un'iperbole, è realismo

Qualcuno potrebbe dire che questo tono è allarmistico. Bene. E dovrebbe esserlo. Perché se si fa un passo indietro e si osserva il quadro completo, non è solo la tecnologia ad accelerare, ma anche il collasso delle istituzioni che dovrebbero gestirla. Stiamo assistendo all'ascesa di regimi autoritari, all'erosione della fiducia nei processi democratici e a un sistema internazionale frammentato che riesce a malapena a concordare sulle politiche climatiche, figuriamoci a governare una superintelligenza artificiale. L'idea che questo stesso sistema coordinerà una risposta globale all'intelligenza artificiale generale in tempo utile è, francamente, un pensiero magico.

Ciò di cui abbiamo bisogno è un'azione urgente e coordinata, fondata sull'onestà riguardo alla nostra situazione attuale, non su un ottimismo di facciata. La realtà è questa: stiamo correndo verso la tecnologia più potente mai concepita, mentre le nostre fondamenta politiche si stanno incrinando sotto i nostri piedi. Se questo non è motivo di allarme, allora cos'altro lo è? Non abbiamo bisogno di un altro vertice con tanto di comunicato stampa. Abbiamo bisogno di un risveglio mondiale. Non domani. Ora.

Non serve essere un informatico per capire cosa sta succedendo. Ma bisogna interessarsene. Non si tratta solo di tecnologia. Si tratta di potere, controllo e del futuro dell'agire umano. Supponiamo che le decisioni sull'intelligenza artificiale intelligente (AGI) siano lasciate a una manciata di miliardari e appaltatori della difesa. Che tipo di mondo lasceremo ai nostri discendenti?

Abbiamo bisogno di pressione pubblica, di una supervisione trasparente e di politiche concrete, non dopo l'arrivo dell'AGI, ma ora. Pensate all'azione per il clima, ma per la cognizione. Sostenete le organizzazioni che si battono per uno sviluppo sicuro dell'intelligenza artificiale. Pretendete un dibattito aperto, non la segretezza aziendale. E sì, votate come se il vostro futuro digitale dipendesse da questo. Perché è così.

Nel frattempo, istruisciti. Insegna agli altri. Non distrarti. Il pericolo maggiore non è che l'intelligenza artificiale diventi troppo intelligente. È che resteremo troppo passivi.

Forse la vera prova non è se riusciremo a costruire un'intelligenza artificiale generale. Forse è se saremo abbastanza saggi da sopravviverle. Ma una cosa è certa: questo genio non tornerà nella bottiglia.

L'autore

JenningsRobert Jennings è il co-editore di InnerSelf.com, una piattaforma dedicata all'emancipazione degli individui e alla promozione di un mondo più connesso ed equo. Veterano del Corpo dei Marines degli Stati Uniti e dell'Esercito degli Stati Uniti, Robert attinge alle sue diverse esperienze di vita, dal lavoro nel settore immobiliare e delle costruzioni alla creazione di InnerSelf.com con sua moglie, Marie T. Russell, per portare una prospettiva pratica e concreta alle sfide della vita. Fondata nel 1996, InnerSelf.com condivide intuizioni per aiutare le persone a fare scelte informate e significative per se stesse e per il pianeta. Più di 30 anni dopo, InnerSelf continua a ispirare chiarezza e responsabilizzazione.

 Creative Commons 4.0

Questo articolo è concesso in licenza sotto licenza Creative Commons Attribuzione-Condividi allo stesso modo 4.0. Attribuire l'autore Robert Jennings, InnerSelf.com. Link all'articolo Questo articolo è originariamente apparso su InnerSelf.com

Riepilogo dell'articolo

L'intelligenza artificiale generale (AGI) è più vicina di quanto si pensi, e gli esperti avvertono che potrebbe arrivare entro il 2030. L'AGI rappresenta l'intelligenza artificiale di livello umano nelle macchine e, una volta raggiunta, potrebbe rapidamente portare alla superintelligenza artificiale (ASI), un sistema ben al di là della nostra comprensione. Con l'accelerazione dello sviluppo dell'IA, la consapevolezza pubblica e politiche proattive sono essenziali per garantire che sia al servizio dell'umanità anziché sostituirla.

#IntelligenzaArtificialeGenerale #IASuperintelligente #FuturoDellaIA #AGI #ASI #ProgressoIA #EticaAIA #FuturoTecnologico