In che modo comprendere gli animali può aiutarci a trarre il massimo dall'intelligenza artificialeLe auto autonome non sono più intelligenti di così. X posid

Ogni giorno nascono innumerevoli titoli da una miriade di fonti in tutto il mondo, entrambe avvertimento di terribili conseguenze ed promettenti futuri utopici - Tutto grazie all'intelligenza artificiale. AI "sta trasformando il posto di lavoro", scrive il Wall Street Journal mentre la lavorazione del prodotto finito avviene negli stabilimenti del nostro partner Fortune la rivista ci dice che stiamo affrontando una "rivoluzione dell'IA" che "cambierà le nostre vite". Ma non capiamo davvero cosa sarà l'interazione con l'intelligenza artificiale o come dovrebbe essere. The Conversation

Si scopre, però, che abbiamo già un concetto che possiamo usare quando pensiamo all'IA: è come pensiamo agli animali. Come ex addestratore di animali (anche se brevemente) che ora studia come le persone usano l'intelligenza artificiale, so che gli animali e l'addestramento degli animali possono insegnarci parecchio su come dovremmo pensare, approcciare e interagire con l'intelligenza artificiale, sia ora che futuro.

Usando le analogie animali può aiutare le persone normali a comprendere molti degli aspetti complessi dell'intelligenza artificiale. Può anche aiutarci a pensare al modo migliore per insegnare a questi sistemi nuove abilità e, forse ancora più importante, come possiamo concepire correttamente i loro limiti, anche mentre celebriamo le nuove possibilità dell'IA.

Osservando i vincoli

Come esperto di IA Maggie Boden spiega"L'intelligenza artificiale cerca di far fare al computer le cose che la mente può fare". I ricercatori di IA stanno lavorando sull'insegnamento ai computer per ragionare, percepire, pianificare, spostare e creare associazioni. L'IA può vedere i modelli in serie di dati di grandi dimensioni, prevedere la probabilità che si verifichi un evento, pianificare un percorso, gestire il programma di incontri di una persona e persino giocare a scenari di guerra.

Molte di queste capacità sono, di per sé, non sorprendenti: naturalmente un robot può rotolare attorno a uno spazio e non entrare in collisione con nulla. Ma in qualche modo l'intelligenza artificiale sembra più magica quando il computer inizia a mettere insieme queste abilità per svolgere compiti.


innerself iscriviti alla grafica


Prendiamo, ad esempio, auto autonome. Le origini dell'auto senza conducente sono in un progetto di Ricerca Avanzata di Ricerca Avanzata dell'era 1980s chiamato Veicolo autonomo terrestre. Gli obiettivi del progetto erano di incoraggiare la ricerca sulla visione artificiale, la percezione, la pianificazione e il controllo robotico. In 2004, lo sforzo ALV è diventato il primo Grande sfida per auto a guida autonoma. Ora, più di 30 anni dall'inizio dello sforzo, siamo sul precipizio di automobili autonome o automotiche nel mercato civile. Nei primi anni, poche persone pensavano che un'impresa del genere fosse impossibile: i computer non potevano guidare!

La DARPA Grand Challenge ha spinto lo sviluppo di veicoli autonomi.

{youtube}M2AcMnfzpNg{/youtube}

Eppure, come abbiamo visto, loro possono. Le capacità delle automobili autonome sono relativamente facili da capire per noi. Ma noi lottiamo per comprendere i loro limiti. Dopo il Incidente mortale di Tesla 2015, dove la funzione di autopilota dell'automobile non è riuscita a percepire un trattore-rimorchio che attraversa la sua corsia, pochi sembrano ancora afferrare la gravità di quanto sia limitato l'autopilota di Tesla. Mentre la compagnia e il suo software erano liberato da negligenza dal National Highway Traffic Safety Administration, non è chiaro se i clienti comprendano davvero cosa può o non può fare l'auto.

Che cosa succede se ai proprietari di Tesla è stato detto che non lo erano guidare una versione "beta" di un autopilota ma piuttosto una macchina semi-autonoma con il equivalenza mentale di un verme? La cosiddetta "intelligenza" che fornisce "piena capacità di guida autonoma"È davvero un computer gigantesco che è abbastanza bravo a percepire oggetti ed evitarli, riconoscendo oggetti in immagini e pianificazione limitata. Ciò potrebbe cambiare le prospettive dei proprietari su quanto l'automobile possa davvero fare a meno dell'input o della supervisione umana.

Che cos'è?

I tecnologi spesso cercano di spiegare l'intelligenza artificiale in termini di come è costruita. Prendiamo, per esempio, i progressi fatti in apprendimento profondo. Questa è una tecnica che usa reti a più strati per imparare come fare un compito. Le reti devono elaborare grandi quantità di informazioni. Ma a causa del volume dei dati che richiedono, della complessità delle associazioni e degli algoritmi nelle reti, spesso non è chiaro agli umani come imparino ciò che fanno. Questi sistemi possono diventare molto bravi in ​​un particolare compito, ma non li capiamo veramente.

Invece di pensare all'IA come qualcosa di superumano o alieno, è più facile analizzarli agli animali, i non umani intelligenti che abbiamo esperienza dell'allenamento.

Ad esempio, se dovessi usare insegnamento rafforzativo per addestrare un cane a sedersi, loderei il cane e gli do delle leccornie quando si siede a comando. Col passare del tempo, avrebbe imparato ad associare il comando al comportamento con il trattamento.

Insegnare a un cane a sedersi è come allenare un'intelligenza artificiale.

{youtube}5-MA-rGbt9k{/youtube}

Allenare un sistema di intelligenza artificiale può essere praticamente lo stesso. Nel rinforzo dell'apprendimento profondoi progettisti umani creano un sistema, immaginano ciò che vogliono che apprendano, forniscano informazioni, osservino le sue azioni e forniscano feedback (come lodi) quando vedono ciò che vogliono. In sostanza, possiamo trattare il sistema di IA come trattiamo gli animali che stiamo allenando.

L'analogia funziona anche a un livello più profondo. Non mi aspetto che il cane seduto capisca concetti complessi come "amore" o "buono". Mi aspetto che apprenda un comportamento. Proprio come possiamo far sì che i cani si siedano, restino e si ribaltino, possiamo ottenere sistemi di intelligenza artificiale per spostare le auto attorno alle strade pubbliche. Ma è troppo aspettarsi che l'auto "risolvere" il problemi etici che possono sorgere nel guidare le emergenze.

Aiutare anche i ricercatori

Pensare all'IA come animale addestrabile non è utile solo per spiegarlo al grande pubblico. È anche utile per i ricercatori e gli ingegneri che costruiscono la tecnologia. Se uno studioso di intelligenza artificiale sta cercando di insegnare a un sistema una nuova abilità, pensare al processo dal punto di vista di un addestratore di animali potrebbe aiutare a identificare potenziali problemi o complicazioni.

Per esempio, se provo ad addestrare il mio cane a sedersi, e ogni volta che dico "seduto" il cicalino al forno si spegne, allora il mio cane inizierà ad associarsi seduto non solo con il mio comando, ma anche con il suono del cicalino del forno. In sostanza, il cicalino diventa un altro segnale che dice al cane di sedersi, che è chiamato "rinforzo accidentale". Se cerchiamo rinforzi accidentali o segnali nei sistemi IA che non funzionano correttamente, sapremo meglio non solo cosa sta succedendo sbagliato, ma anche quale riqualificazione specifica sarà più efficace.

Questo ci impone di capire quali messaggi stiamo dando durante l'allenamento dell'IA, così come ciò che l'IA potrebbe osservare nell'ambiente circostante. Il cicalino del forno è un semplice esempio; nel mondo reale sarà molto più complicato.

Prima di accogliere i nostri signori dell'IA e consegnare le nostre vite e i nostri lavori ai robot, dovremmo fermarci a riflettere sul tipo di intelligenze che stiamo creando. Saranno molto bravi a fare particolari azioni o compiti, ma non possono capire i concetti e non sanno nulla. Quindi quando stai pensando sborsare migliaia per una nuova auto Tesla, ricorda che la sua funzione di pilota automatico è in realtà solo un worm molto veloce e sexy. Vuoi veramente dare un controllo sulla tua vita e le vite dei tuoi cari a un verme? Probabilmente no, quindi tieni le mani sul volante e non addormentarti.

Circa l'autore

Heather Roff, Senior Research Fellow, Dipartimento di Politica e Relazioni Internazionali, Università di Oxford; Ricercatore, Global Security Initiative, Arizona State University

Questo articolo è stato pubblicato in origine The Conversation. Leggi il articolo originale.

libri correlati

at InnerSelf Market e Amazon