L'intelligenza artificiale può ora emulare i comportamenti umani e presto sarà pericolosamente buona

L'intelligenza artificiale può ora emulare i comportamenti umani e presto sarà pericolosamente buonaQuesta faccia è solo un insieme di pezzi di computer? FOTOCREO Michal Bednarek / Shutterstock.com

Quando i sistemi di intelligenza artificiale iniziano a diventare creativi, possono creare cose grandiose e spaventose. Prendiamo, ad esempio, un programma AI che lo lascia gli utenti web compongono musica oltre ad virtuale Johann Sebastian Bach inserendo le note in un programma che genera armonie simili a Bach per abbinarle.

Gestito da Google, l'applicazione ha disegnato grande lode per essere innovativo e divertente con cui giocare. E 'anche attratto criticae ha sollevato preoccupazioni per i pericoli dell'IA.

Il mio studio su come le tecnologie emergenti influenzano la vita delle persone mi ha insegnato che i problemi vanno al di là della preoccupazione di cui si parla se algoritmi può davvero creare musica o arte in generale. Alcune lamentele sembravano piccole, ma in realtà non lo erano, come le osservazioni che l'AI di Google era rompere le regole di base di composizione musicale.

In effetti, gli sforzi per far imitare i computer al comportamento di persone reali possono essere fonte di confusione e potenzialmente dannosi.

Tecnologie di rappresentazione

Il programma di Google ha analizzato le note in 306 delle opere musicali di Bach, trovando le relazioni tra la melodia e le note che fornivano l'armonia. Poiché Bach seguiva rigide regole di composizione, il programma stava effettivamente imparando quelle regole, quindi poteva applicarle quando gli utenti fornivano le proprie note.

Il team di Google Doodle spiega il programma di Bach.

L'app di Bach è nuova, ma la tecnologia di base non lo è. Algoritmi addestrati a riconoscere i modelli e rendere decisioni probabilistiche sono esistito da molto tempo Alcuni di questi algoritmi sono così complessi che le persone non capisco sempre come prendono decisioni o producono un risultato particolare.

I sistemi di intelligenza artificiale non sono perfetti - molti di loro contano dati che non sono rappresentativi di tutta la popolazione o che lo sono influenzato da pregiudizi umani. Non è completamente chiaro chi potrebbe essere legalmente responsabile quando un sistema AI commette un errore o causa un problema.

Ora, però, le tecnologie di intelligenza artificiale stanno diventando abbastanza avanzate da essere in grado di approssimare lo stile di scrittura o di espressione delle persone e persino le espressioni facciali. Questo non è sempre male: un'IA abbastanza semplice ha dato a Stephen Hawking il capacità di comunicare in modo più efficiente con gli altri predittendo le parole che avrebbe usato di più.

Programmi più complessi che imitano le voci umane assistere le persone con disabilità - ma può anche essere usato per ingannare gli ascoltatori. Ad esempio, i produttori di lyrebird, un programma che imita la voce, ha rilasciato a conversazione simulata tra Barack Obama, Donald Trump e Hillary Clinton. Può sembrare reale, ma quello scambio non è mai successo.

Da buono a cattivo

A febbraio 2019, la società non profit OpenAI ha creato un programma che genera del testo praticamente indistinguibile dal testo scritto da persone. Può "scrivere" un discorso nello stile di John F. Kennedy, JRR Tolkien in "Il Signore degli Anelli"O uno studente che scrive un incarico scolastico sulla guerra civile americana.

Il testo generato dal software OpenAI è così credibile che l'azienda ha scelto non rilasciare il programma stesso.

Tecnologie simili possono simulare foto e video. All'inizio di 2018, ad esempio, l'attore e regista Jordan Peele ha creato un video che sembrava mostrare l'ex presidente degli Stati Uniti Barack Obama dicendo cose che Obama non ha mai effettivamente detto per avvisare il pubblico dei pericoli posti da queste tecnologie.

Fai attenzione a quali video credi.

All'inizio di 2019, a foto di nudo finto della Rep. USA Alexandria Ocasio-Cortez circolava online. Video fabbricati, chiamato spesso "deepfakes, "Dovrebbero essere sempre più utilizzando nelle campagne elettorali.

Membri del Congresso hanno iniziato a esaminare questo problema prima dell'elezione di 2020. Il Dipartimento della Difesa degli Stati Uniti sta insegnando al pubblico come individuare i video dottorato e audio. Organizzazioni di notizie come Reuters stanno iniziando ad addestrare i giornalisti per individuare i deepfakes.

Ma, a mio avviso, rimane una preoccupazione ancora più grande: gli utenti potrebbero non essere in grado di apprendere abbastanza velocemente da distinguere i contenuti falsi quando la tecnologia AI diventa più sofisticata. Ad esempio, mentre il pubblico comincia a prendere coscienza dei deepfakes, l'intelligenza artificiale è già utilizzata per inganni ancora più avanzati. Ora ci sono programmi che possono generare facce finte e impronte digitali digitali false, creando efficacemente le informazioni necessarie per fabbricare un'intera persona, almeno nei registri aziendali o governativi.

Le macchine continuano ad apprendere

Al momento, ci sono abbastanza errori potenziali in queste tecnologie per dare alle persone la possibilità di rilevare le fabbricazioni digitali. Compositore di Bach di Google fatto degli errori un esperto potrebbe rilevare. Ad esempio, quando l'ho provato, il programma mi ha permesso di entrare quinti paralleli, un intervallo musicale che Bach evitato con cura. L'app anche ha rotto le regole musicali di contrappunto armonizzando le melodie nella chiave sbagliata. Allo stesso modo, il programma di generazione di testo di OpenAI occasionalmente ha scritto frasi come "incendi che accadono sott'acqua"Non aveva senso nei loro contesti.

Mentre gli sviluppatori lavorano sulle loro creazioni, questi errori diventeranno più rari. In effetti, le tecnologie IA evolveranno e impareranno. Il miglioramento delle prestazioni ha il potenziale per portare molti benefici sociali - inclusa una migliore assistenza sanitaria, come aiutano i programmi di AI democratizzare la pratica della medicina.

Dare ai ricercatori e alle aziende la libertà di esplorare, al fine di cercare questi risultati positivi dai sistemi di intelligenza artificiale, significa aprire il rischio di sviluppare metodi più avanzati per creare l'inganno e altri problemi sociali. La ricerca sull'intelligenza artificiale potrebbe limitare severamente frenare quel progresso. Ma dando tecnologie vantaggiose spazio per crescere ha un costo non indifferente - e il potenziale per l'uso improprio, sia che si tratti di produrre musica "Bach-like" inaccurata o di ingannare milioni di persone, è destinato a crescere in modi che le persone non possono ancora anticipare.The Conversation

Circa l'autore

Ana Santos Rutschman, Assistant Professor of Law, Saint Louis University

Questo articolo è ripubblicato da The Conversation sotto una licenza Creative Commons. Leggi il articolo originale.

libri correlati

{amazonWS: searchindex = Libri; parole chiave = intelligenza artificiale; maxresults = 3}

enafarZH-CNzh-TWnltlfifrdehiiditjakomsnofaptruessvtrvi

segui InnerSelf su

facebook-icontwitter-iconrss-icon

Ricevi l'ultimo tramite e-mail

{Emailcloak = off}