La tecnologia può salvarci dalla disinformazione sui social media?

Se ricevi le tue notizie dai social media, come la maggior parte degli americani lo fa, sei esposto a una dose giornaliera di bufale, voci, teorie cospirative e notizie fuorvianti. Quando tutto è mescolato con informazioni affidabili da fonti oneste, la verità può essere molto difficile da discernere.

In effetti, l'analisi del mio team di ricerca sui dati della Columbia University Emergente rumor tracker suggerisce che questo la disinformazione è altrettanto probabile che diventi virale come informazioni affidabili.

Molti si stanno chiedendo se questo assalto di disinformazione digitale influenzato il risultato delle elezioni americane 2016. La verità è che non lo sappiamo, anche se ci sono ragioni per credere che sia del tutto possibile, basato su analisi passate ed conti di altri paesi. Ogni pezzo di disinformazione contribuisce alla formazione delle nostre opinioni. Nel complesso, il danno può essere molto reale.

Come ricercatore sulla diffusione della disinformazione attraverso i social media, so che limita la capacità dei cronisti di vendere pubblicità, come recentemente annunciato da Google ed Facebook, è un passo nella giusta direzione. Ma non frenerà gli abusi spinti da motivi politici.

Sfruttare i social media

Circa 10 anni fa, io e i miei colleghi abbiamo gestito un esperimento in cui abbiamo appreso la percentuale di 72 di studenti universitari link attendibili che sembravano provenire da amici - anche al punto di inserire informazioni di accesso personali sui siti di phishing. Questa vulnerabilità diffusa ha suggerito un'altra forma di manipolazione dannosa: le persone potrebbero anche credere alla disinformazione che ricevono quando fanno clic su un collegamento da un contatto sociale.

Per esplorare questa idea, ho creato a pagina web falsa con notizie di gossip casuali generate da computer - cose come "Celebrity X catturata a letto con Celebrity Y!" I visitatori del sito che cercavano un nome avrebbero attivato la sceneggiatura per creare automaticamente una storia sulla persona. Ho incluso nel sito un disclaimer, dicendo che il sito conteneva un testo privo di significato e "fatti" inventati. Ho anche inserito degli annunci sulla pagina. Alla fine del mese, ho ricevuto un assegno per posta con i guadagni dagli annunci. Questa era la mia prova: le notizie false potevano fare soldi inquinando Internet con falsità.


innerself iscriviti alla grafica


Purtroppo, non ero l'unico con questa idea. Dieci anni dopo, abbiamo un industria di notizie false ed disinformazione digitale. I siti di Clickbait producono bufale per fare soldi con le pubblicità, mentre i cosiddetti siti iperpartitici pubblicano e diffondono voci e teorie cospirative per influenzare l'opinione pubblica.

Questo settore è sostenuto da quanto sia facile da creare bot socialiconti falsi controllati da un software che assomiglia a persone reali e che quindi possono avere un'influenza reale. Ricerca nel mio laboratorio ha scoperto molti esempi di false campagne di base, anche chiamate astroturfing politico.

In risposta, abbiamo sviluppato il BotOrNot strumento per rilevare i social bot. Non è perfetto, ma abbastanza preciso per scoprire le campagne di persuasione nei movimenti Brexit e antivax. Usando BotOrNot, i nostri colleghi hanno scoperto che a grande porzione di chatter online sulle elezioni 2016 è stato generato da bot.

Creare bolle di informazione

Noi umani siamo vulnerabili alla manipolazione tramite disinformazione digitale grazie a un complesso insieme di pregiudizi sociali, cognitivi, economici e algoritmici. Alcuni di questi si sono evoluti per buone ragioni: fidarsi dei segnali dei nostri circoli sociali e rifiutare le informazioni che contraddicono la nostra esperienza ci hanno servito bene quando le nostre specie si sono adattate per sfuggire ai predatori. Ma nelle restrittive reti online di oggi, una connessione di rete sociale con un teorico della cospirazione dall'altra parte del pianeta non aiuta a informare le mie opinioni.

Copiando i nostri amici e smontando quelli con opinioni diverse ci danno le camere di eco così polarizzata che i ricercatori possono dire con alta precisione, indipendentemente dal fatto che tu sia liberale o conservatore semplicemente guardando i tuoi amici. La struttura della rete è così denso che qualsiasi disinformazione si diffonde quasi istantaneamente all'interno di un gruppo, e così segregata che non raggiunge l'altro.

All'interno della nostra bolla, siamo selettivamente esposti a informazioni allineate con le nostre convinzioni. Questo è uno scenario ideale per massimizzare l'impegno, ma è dannoso per lo sviluppo di sano scetticismo. Bias di conferma ci porta a condividere un titolo senza nemmeno leggere l'articolo.

Il nostro laboratorio ha avuto una lezione personale in questo quando il nostro progetto di ricerca è diventato l'argomento di un campagna viziosa di disinformazione nella corsa alle elezioni di midterm degli Stati Uniti di 2014. Quando abbiamo indagato su cosa stava accadendo, abbiamo trovato finte notizie sulle nostre ricerche che sono state condivise prevalentemente dagli utenti di Twitter all'interno di una camera di eco partigiana, una vasta e omogenea comunità di utenti politicamente attivi. Queste persone erano veloci a retweet e impermeabili a smascherare le informazioni.

Inevitabilità virale

La nostra ricerca mostra che, data la struttura dei nostri social network e la nostra limitata attenzione, lo è inevitabile che alcuni memi diventerà virale, indipendentemente dalla loro qualità. Anche se gli individui tendono a condividere informazioni di qualità superiore, la rete nel suo insieme non è efficace nel discriminare tra informazioni affidabili e fabbricate. Questo aiuta a spiegare tutte le bufale virali che osserviamo in natura.

Le economia dell'attenzione si prende cura di tutto il resto: se prestiamo attenzione a un determinato argomento, verranno prodotte ulteriori informazioni su quell'argomento. È più economico fabbricare informazioni e trasmetterle come fatto piuttosto che riportare la verità effettiva. E la fabbricazione può essere adattata ad ogni gruppo: i conservatori leggono che il papa ha approvato Trump, i liberali leggono che ha approvato Clinton. Non ha fatto né.

Rispetto agli algoritmi

Dal momento che non possiamo prestare attenzione a tutti i post nei nostri feed, gli algoritmi determinano ciò che vediamo e ciò che non facciamo. Gli algoritmi utilizzati dalle piattaforme di social media oggi sono progettati per dare la priorità ai post coinvolgenti: quelli su cui è probabile fare clic, reagire e condividere. Ma una recente analisi ha trovato almeno intenzionalmente pagine ingannevoli tanto condivisione online e reazione come notizie vere.

Questo pregiudizio algoritmico verso l'impegno sulla verità rafforza i nostri pregiudizi sociali e cognitivi. Di conseguenza, quando seguiamo i collegamenti condivisi sui social media, tendiamo a visitare un più piccolo, più omogeneo insieme di fonti rispetto a quando effettuiamo una ricerca e visitiamo i risultati migliori.

La ricerca esistente dimostra che essere in una camera di eco può rendere le persone più credulone sull'accettazione di voci non verificate. Ma abbiamo bisogno di sapere molto di più su come le diverse persone rispondono a una singola bufala: alcuni la condividono subito, altri la controllano prima.

Siamo simulare un social network studiare questa competizione tra condivisione e fact-checking. Speriamo di aiutare a sbrogliare le prove contrastanti quando il fact-checking aiuta a fermare le bufale dalla diffusione e quando non lo fa. I nostri risultati preliminari suggeriscono che più è segregata la comunità dei falsi credenti, più a lungo sopravvive lo scherzo. Di nuovo, non si tratta solo della beffa stessa, ma anche della rete.

Molte persone stanno cercando di capire cosa fare per tutto questo. Secondo l'ultimo di Mark Zuckerberg annuncio, I team di Facebook stanno testando le potenziali opzioni. E un gruppo di studenti universitari ha proposto un modo semplice etichetta i collegamenti condivisi come "verificato" o meno.

Alcune soluzioni rimangono fuori dalla portata, almeno per il momento. Ad esempio, non possiamo ancora insegnare ai sistemi di intelligenza artificiale come discernere tra verità e menzogna. Ma possiamo dire che gli algoritmi di ranking danno maggiore priorità a fonti più affidabili.

Studiando la diffusione di notizie false

Possiamo rendere più efficiente la nostra lotta contro le notizie false se capiamo meglio come si diffondono le informazioni errate. Se, ad esempio, i robot sono responsabili di molte delle falsità, possiamo focalizzare l'attenzione sul loro rilevamento. Se, in alternativa, il problema è con echo chambers, forse potremmo progettare sistemi di raccomandazione che non escludono viste differenti.

A tal fine, il nostro laboratorio sta costruendo una piattaforma chiamata Hoaxy per tracciare e visualizzare la diffusione di affermazioni non verificate e corrispondenti verifiche dei fatti sui social media. Questo ci fornirà dati del mondo reale, con i quali possiamo informare i nostri social network simulati. Quindi possiamo testare possibili approcci per combattere le notizie false.

Hoaxy potrebbe anche essere in grado di mostrare alle persone quanto sia facile manipolare le loro opinioni tramite le informazioni online e persino quanto probabilmente alcuni di noi devono condividere falsità online. Hoaxy si unirà a una suite di strumenti nel nostro Osservatorio sui social media, che permette a chiunque di vedere come i meme si diffondono su Twitter. Collegare strumenti come questi ai correttori di fatti umani e alle piattaforme di social media potrebbe rendere più semplice ridurre al minimo la duplicazione degli sforzi e supporto l'un l'altro.

È indispensabile investire risorse nello studio di questo fenomeno. Abbiamo bisogno di tutte le mani sul ponte: scienziati informatici, scienziati sociali, economisti, giornalisti e partner del settore devono lavorare insieme per resistere alla diffusione della disinformazione.

The Conversation

Circa l'autore

Filippo Menczer, professore di informatica e informatica; Direttore del Centro per la ricerca di reti e sistemi complessi, Indiana University, Bloomington

Questo articolo è stato pubblicato in origine The Conversation. Leggi il articolo originale.

Libri correlati:

at InnerSelf Market e Amazon