Gli algoritmi di YouTube potrebbero radicalizzare le persone, ma il vero problema è che non abbiamo idea di come funzionano Mr Tempter / Shutterstock

YouTube crea estremisti? UN recente studio ha causato discussioni tra gli scienziati sostenendo che gli algoritmi che alimentano il sito non aiutano a radicalizzare le persone raccomandando video sempre più estremi, come è stato suggerito negli ultimi anni.

Il documento, presentato alla rivista ad accesso aperto First Monday ma ancora sottoposto a revisione formale da parte dei colleghi, ha analizzato i consigli video ricevuti da diversi tipi di canali. Ha affermato che l'algoritmo di YouTube favorisce i canali multimediali tradizionali rispetto ai contenuti indipendenti, concludendo che la radicalizzazione ha più a che fare con le persone che creano contenuti dannosi rispetto all'algoritmo del sito.

Gli specialisti del campo sono entrati rapidamente rispondendo allo studio, con alcune critiche i metodi del documento e altri che sostenevano che l'algoritmo era uno dei diversi fattori importanti e quella scienza dei dati da sola non ci darà la risposta.

Il problema con questa discussione è che non possiamo davvero rispondere alla domanda su quale ruolo gioca l'algoritmo di YouTube nel radicalizzare le persone perché non capiamo come funziona. E questo è solo un sintomo di un problema molto più ampio. Questi algoritmi svolgono un ruolo crescente nella nostra vita quotidiana ma mancano di qualsiasi tipo di trasparenza.

È difficile sostenere che YouTube non abbia un ruolo nella radicalizzazione. Questo è stato sottolineato per la prima volta dal sociologo tecnologico Zeynep Tufekci, che ha illustrato come i video consigliati guidino gradualmente gli utenti verso contenuti più estremi. Nelle parole di Tufekci, i video sul jogging portano a video sull'esecuzione di ultramaratone, i video sui vaccini portano a teorie cospirative e i video sulla politica portano a "smentite dell'Olocausto e altri contenuti inquietanti".


innerself iscriviti alla grafica


Anche questo è stato scritto in dettaglio dall'ex dipendente di YouTube Guillaume Chaslot che ha lavorato all'algoritmo di raccomandazione del sito. Da quando ha lasciato l'azienda, Chaslot ha continuato a cercare di formulare raccomandazioni più trasparente. Dice che i consigli di YouTube sono di parte teorie della cospirazione e video di fatto imprecisi, che consente comunque alle persone di trascorrere più tempo sul sito.

Infatti, massimizzare il tempo di visione è il punto centrale degli algoritmi di YouTube e questo incoraggia i creatori di video a lottare per attirare l'attenzione in ogni modo possibile. La pura compagnia mancanza di trasparenza su come esattamente questo funzioni rende quasi impossibile combattere la radicalizzazione sul sito. Dopotutto, senza trasparenza, è difficile sapere cosa può essere cambiato per migliorare la situazione.

Gli algoritmi di YouTube potrebbero radicalizzare le persone, ma il vero problema è che non abbiamo idea di come funzionano Come funziona l'algoritmo di YouTube rimane un mistero. Chi è Danny / Shutterstock

Ma YouTube non è insolito da questo punto di vista. Una mancanza di trasparenza sul funzionamento degli algoritmi è di solito il caso ogni volta che vengono utilizzati in sistemi di grandi dimensioni, sia da società private che da enti pubblici. Oltre a decidere quale video mostrare in seguito, gli algoritmi di machine learning sono ora utilizzati collocare i bambini nelle scuole, decidere pena detentiva, determinare punteggi di credito ed tassi di assicurazione, nonché il destino di immigrati, candidati di lavoro ed candidati universitari. E di solito non capiamo come questi sistemi prendono le loro decisioni.

I ricercatori hanno trovato modi creativi per mostrare l'impatto di questi algoritmi sulla società, sia esaminando il innalzamento del diritto reazionario oppure diffusione delle teorie della cospirazione su YouTube o mostrando come i motori di ricerca riflettono i pregiudizi razzisti delle persone che li creano.

I sistemi di apprendimento automatico sono generalmente grandi, complessi e opachi. Opportunamente, sono spesso descritti come scatole nere, dove entrano le informazioni e le informazioni o le azioni escono, ma nessuno può vedere cosa succede nel mezzo. Ciò significa che, poiché non sappiamo esattamente come funzionano gli algoritmi come il sistema di raccomandazione di YouTube, provare a capire come funziona il sito sarebbe come cercare di capire un'auto senza aprire il cofano.

A sua volta, ciò significa che cercare di scrivere leggi per regolare ciò che gli algoritmi dovrebbero o non dovrebbero fare diventa un processo cieco o una prova ed errore. Questo è ciò che sta accadendo con YouTube e con così tanti altri algoritmi di apprendimento automatico. Stiamo cercando di dire qualcosa nei loro risultati, senza una reale comprensione di come funzionano davvero. Dobbiamo aprire queste tecnologie brevettate, o almeno renderle abbastanza trasparenti da poterle regolamentare.

Spiegazioni e test

Un modo per farlo sarebbe quello di fornire algoritmi spiegazioni controfattuali insieme alle loro decisioni. Ciò significa elaborare le condizioni minime necessarie affinché l'algoritmo prenda una decisione diversa, senza descriverne la logica completa. Ad esempio, un algoritmo che prende decisioni sui prestiti bancari potrebbe produrre un risultato che dice che "se avessi più di 18 anni e non avessi alcun debito precedente, il tuo prestito bancario sarebbe accettato". Ma questo potrebbe essere difficile da fare con YouTube e altri siti che utilizzano algoritmi di raccomandazione, poiché in teoria qualsiasi video sulla piattaforma potrebbe essere raccomandato in qualsiasi momento.

Un altro potente strumento è il test e il controllo degli algoritmi, che è stato particolarmente utile nella diagnosi di algoritmi distorti. In un caso recente, una società di screening di curriculum professionale ha scoperto che il suo algoritmo era dare la priorità a due fattori come migliori predittori delle prestazioni lavorative: se il nome del candidato era Jared e se giocavano a lacrosse al liceo. Questo è ciò che accade quando la macchina rimane incustodita.

In questo caso, l'algoritmo di screening del curriculum aveva notato che gli uomini bianchi avevano maggiori possibilità di essere assunti e aveva trovato caratteristiche proxy correlate (come essere chiamato Jared o giocare a lacrosse) presenti nei candidati assunti. Con YouTube, il controllo degli algoritmi potrebbe aiutare a capire a quali tipi di video viene data la priorità per la raccomandazione - e forse aiutare a risolvere il dibattito sul fatto che i consigli di YouTube contribuiscano o meno alla radicalizzazione.

Presentare spiegazioni controfattuali o utilizzare il controllo algoritmico è un processo difficile e costoso. Ma è importante, perché l'alternativa è peggio. Se gli algoritmi non vengono controllati e non regolamentati, potremmo vedere un progressivo insinuarsi di teorici ed estremisti della cospirazione nei nostri media e la nostra attenzione controllata da chiunque può produrre il contenuto più redditizio.The Conversation

L'autore

Chico Q. Camargo, Ricercatore post-dottorato in Data Science, Università di Oxford

Questo articolo è ripubblicato da The Conversation sotto una licenza Creative Commons. Leggi il articolo originale.