In che modo l'intelligenza artificiale può renderci più capaci nell'esprimere noi stessi

In che modo l'intelligenza artificiale può renderci più capaci nell'esprimere noi stessi
Shutterstock

La capacità di argomentare, di esprimere il nostro ragionamento agli altri, è una delle caratteristiche che definiscono ciò che significa essere umani.

Argomentazione e dibattito costituiscono i capisaldi della società civile e della vita intellettuale. I processi di argomentazione governano i nostri governi, strutturano lo sforzo scientifico e inquadrano le credenze religiose. Quindi dovremmo preoccuparci che i nuovi progressi nell'intelligenza artificiale stiano prendendo provvedimenti per dotare i computer di queste competenze?

Mentre la tecnologia rimodella le nostre vite, ci stiamo tutti abituando a nuovi modi di lavorare e nuovi modi di interagire. I millennial non hanno saputo altro. I governi e le magistrature si stanno rendendo conto del potenziale offerto dalla tecnologia per coinvolgere i cittadini in processi democratici e legali. Alcuni politici, individualmente, sono più avanti nel gioco nel comprendere l'enorme ruolo che i social media svolgono nei processi elettorali. Ma ci sono sfide profonde.

Uno è ben impostato da Upworthy CEO Eli Pariser nel suo TED talk. In essa spiega come stiamo iniziando a vivere in "bolle di filtro": ciò che vedi quando cerchi un termine specifico su Google non è necessariamente lo stesso di quello che vedo quando cerco lo stesso termine. Le organizzazioni dei media da Fox News a, più di recente, la BBC, stanno personalizzando i contenuti, con ID e login utilizzati per selezionare quali storie sono presenti in primo piano. Il risultato è che rischiamo di chiuderci in camere di eco di individui che la pensano allo stesso modo, mentre i nostri argomenti diventano più unilaterali, meno equilibrati e meno comprensivi di altri punti di vista.


Ricevi le ultime novità da InnerSelf



TED / YouTube.

Perché il pensiero critico è fondamentale

Un'altra preoccupazione è il modo in cui le notizie e le informazioni, anche se sempre più voluminose, diventano sempre meno affidabili: accuse e contro-accuse di "notizie false"Sono ormai all'ordine del giorno.

Di fronte a tali sfide, le capacità di pensiero critico sono ora più vitali di quanto non siano mai state: la capacità di giudicare e valutare le prove in modo rapido ed efficiente, di uscire dalla nostra camera di eco e pensare a cose da punti di vista alternativi, per integrare le informazioni, spesso in team, bilanciano le argomentazioni su entrambi i lati e raggiungono conclusioni solide e difendibili. Queste sono le capacità argomentative che sono state oggetto di ricerca accademica in filosofia per più di 2,000 anni, da Aristotele.

Il ruolo di Centro per la tecnologia degli argomenti (ARG-tech) presso l'Università di Dundee si occupa di prendere ed estendere le teorie dalla filosofia, dalla linguistica e dalla psicologia che ci parlano di come gli umani discutono, di come non sono d'accordo e di come raggiungono il consenso e di fare di quelle teorie un punto di partenza per costruire strumenti di intelligenza artificiale che modellano, riconoscono, insegnano e persino prendono parte a discussioni umane.

Una delle sfide per la ricerca moderna nell'area è stata ottenere dati sufficienti. Tecniche di AI come apprendimento profondo richiedono grandi quantità di dati, esempi attentamente rivisti che possono aiutare a costruire algoritmi robusti.

Ma ottenere dati di questo tipo è davvero difficile: occorrono ore di lavoro scrupoloso da parte di analisti altamente qualificati per mettere a nudo il modo in cui gli argomenti sono stati messi insieme da pochi minuti di discorso.

Più di 10 anni fa, ARG-tech si rivolse al programma 4 della BBC Radio, Labirinto morale, come esempio del dibattito sul "gold standard": una discussione rigorosa e rigorosa su questioni emotive e attuali, con moderazione attenta e misurata. Di enorme valore, quei dati alimentarono un programma di ricerca empiricamente fondata sulla tecnologia degli argomenti.

La tecnologia

Lavorare con dati così esigenti ha significato che tutto, dalla teoria filosofica all'infrastruttura dei dati su larga scala, è stato messo alla prova. In ottobre 2017, abbiamo condotto un progetto pilota con il dipartimento di Religione ed Etica della BBC Radio per implementare due tipi di tecnologia per nuovi argomenti.

Il primo era un insieme di "analisi". Abbiamo iniziato costruendo un'enorme mappa di ogni dibattito sul labirinto morale, comprendente migliaia di espressioni individuali e altre migliaia di connessioni tra i contenuti di tutte queste espressioni. Ogni mappa è stata poi tradotta in una serie di infografiche, utilizzando algoritmi per determinare i temi più centrali (utilizzando qualcosa di simile a Google PageRank algoritmo). Abbiamo identificato automaticamente le questioni più controverse e in cui i partecipanti si sono fermati, così come i momenti del dibattito quando il conflitto ha raggiunto il punto di ebollizione, quanto bene erano gli argomenti supportati e così via.

Il risultato, a bbc.arg.tech in collaborazione con Moral Maze presenta, per la prima volta, un metodo basato sull'evidenza per capire cosa accade realmente in un dibattito.

Il secondo era uno strumento chiamato "debater", Che ti consente di assumere il ruolo di chair of the Moral Maze e di eseguire la tua versione. Accetta gli argomenti offerti da ciascun partecipante e ti consente di spostarli, seguendo il tuo naso per una buona argomentazione.

Lo strumento di discussione consente ai partecipanti di presiedere un dibattito e testare le proprie capacità. (Come l'intelligenza artificiale può renderci più bravi nell'esprimere noi stessi)
Lo strumento di discussione consente ai partecipanti di presiedere un dibattito e testare le proprie capacità. BBC / Dundee University ARG-tech

Entrambi gli aspetti mirano a offrire informazioni e incoraggiare discussioni di migliore qualità e più riflessive. Da una parte, il lavoro consente sommari di come migliorare le capacità di argomentare, guidato dalle prove nei dati di ciò che effettivamente funziona.

Dall'altro c'è l'opportunità di insegnare esplicitamente quelle abilità: a Metti alla prova la tua argomentazione Il prototipo distribuito sul sito BBC Taster utilizza esempi del labirinto morale per esplorare un piccolo numero di abilità di discussione e consente di mettere il tuo ingegno direttamente contro la macchina.

Sforzo di gruppo

In definitiva, l'obiettivo non è quello di costruire una macchina che possa batterci in una discussione. Molto più eccitante è il potenziale che il software AI contribuisca alla discussione umana: riconoscere i tipi di argomenti, criticarli, offrire visualizzazioni alternative e ragioni di indagine sono tutte cose che sono ora alla portata dell'IA.

Ed è qui che risiede il vero valore: avere gruppi di arguers, alcuni umani, alcune macchine, lavorare insieme per affrontare situazioni complesse e impegnative, dall'analisi dell'intelligence alla gestione aziendale.

The ConversationQuesti team di ragionamento collaborativi e di "iniziativa mista" trasformeranno il modo in cui pensiamo di interagire con l'intelligenza artificiale e, auspicabilmente, trasformeremo anche le nostre capacità di ragionamento collettivo.

Circa l'autore

Chris Reed, professore di informatica e filosofia, Università di Dundee

Questo articolo è stato pubblicato in origine The Conversation. Leggi il articolo originale.

Libri correlati:

{amazonWS: searchindex = Libri; parole chiave = intelligenza artificiale per gli umani; maxresults = 3}

enafarZH-CNzh-TWnltlfifrdehiiditjakomsnofaptruessvtrvi

segui InnerSelf su

facebook-icontwitter-iconrss-icon

Ricevi l'ultimo tramite e-mail

{Emailcloak = off}