3 Ways Facebook potrebbe ridurre le notizie false

Il pubblico ne riceve molti notizie e informazioni da Facebook. Alcuni di questi sono finti. Questo presenta un problema per gli utenti del sito e per l'azienda stessa.

Il cofondatore e presidente di Facebook Mark Zuckerberg ha affermato che la società troverà dei modi per affrontare il problema, anche se non ne ha riconosciuto la gravità. E senza apparente ironia, ha fatto questo annuncio in a Facebook postale circondato - almeno per alcuni spettatori - da notizie false.

Altre tecnologie: le prime società con poteri simili a come il pubblico si informa, come Google, hanno lavorato duramente nel corso degli anni degradare le informazioni di bassa qualità nei loro risultati di ricerca. Ma Facebook non ha fatto mosse simili per aiutare gli utenti.

Cosa potrebbe fare Facebook per soddisfare il suo obbligo sociale di distinguere i fatti dalla finzione per il 70 percentuale di utenti internet chi accede a Facebook? Se il sito è sempre più dove le persone ricevono le loro notizie, cosa potrebbe fare l'azienda senza assumere il ruolo di arbitro finale della verità? Il mio lavoro come professore di studi di informazione suggerisce che ci sono almeno tre opzioni.

Il ruolo di Facebook

Facebook dice che è un società di tecnologia, non una società di media. Il motivo principale dell'azienda è il profitto, piuttosto che a obiettivo più alto come produrre informazioni di alta qualità per aiutare il pubblico ad agire con cognizione di causa nel mondo.

Tuttavia, i post sul sito e le conversazioni circostanti sia online che offline sono sempre di più coinvolto nel nostro discorso pubblico e l'agenda politica della nazione. Di conseguenza, la società ha l'obbligo sociale di utilizzare la propria tecnologia per promuovere il bene comune.


innerself iscriviti alla grafica


Discernere la verità dalla falsità, tuttavia, può essere scoraggiante. Facebook non è solo dentro sollevando dubbi sulla sua capacità - e quello di altre aziende tecnologiche - per giudicare la qualità delle notizie. Il direttore di FactCheck.org, un gruppo di controllo dei fatti senza scopo di lucro con sede presso l'Università della Pennsylvania, ha detto a Bloomberg News che molte affermazioni e storie non sono completamente false. Molti hanno kernel di verità, anche se sono molto fuorviati. Che cosa può fare davvero Facebook?

Opzione 1: Nudging

Un'opzione che Facebook potrebbe adottare consiste nell'utilizzare elenchi esistenti che identificano l'affidabilità e l'affidabilità siti di notizie false. Il sito potrebbe quindi avvisare coloro che vogliono condividere un articolo fastidioso che la sua fonte è discutibile.

Uno sviluppatore, ad esempio, ha creato un'estensione per il browser Chrome che indica quando un sito web stai guardando potrebbe essere falso. (Lo chiama "BS Detector.") In un hackathon 36-hour, un gruppo di studenti universitari creato un'estensione per browser Chrome simile che indica se il sito web da cui proviene l'articolo fa parte di un elenco di siti affidabili verificati o è invece non verificato.

Queste estensioni presentano i loro avvisi mentre le persone stanno scorrendo i loro feed di notizie. Allo stato attuale, nessuno di questi lavori funziona direttamente come parte di Facebook. Integrarli fornirebbe un'esperienza più fluida e renderebbe il servizio disponibile a tutti gli utenti di Facebook, oltre a quelli che hanno installato una delle estensioni sul proprio computer.

La società potrebbe anche utilizzare le informazioni generate dalle estensioni - o il loro materiale di origine - per avvisare gli utenti prima che condividano informazioni inaffidabili. Nel mondo del software design, questo è noto come "gomitata"Il sistema di allarme monitora il comportamento dell'utente e avvisa le persone o fornisce loro un feedback per aiutare a modificare le loro azioni quando utilizzano il software.

Questo è stato fatto prima, per altri scopi. Ad esempio, colleghi miei qui alla Syracuse University costruito un'applicazione nudging che controlla ciò che gli utenti di Facebook stanno scrivendo in un nuovo post. Viene visualizzata una notifica se il contenuto che stanno scrivendo è qualcosa di cui potrebbero pentirsi, ad esempio un messaggio arrabbiato con parolacce.

La bellezza dei nudges è il modo gentile ma efficace di ricordare alle persone il comportamento per aiutarli e quindi cambiare quel comportamento. Studi che hanno testato l'uso di nudges a migliorare il comportamento sanoad esempio, scopri che le persone hanno maggiori probabilità di modificare la loro dieta e l'esercizio fisico basandosi su promemoria e raccomandazioni delicati. I nudges possono essere efficaci perché danno alle persone il controllo mentre forniscono loro anche informazioni utili. In definitiva, il destinatario della spinta decide ancora se utilizzare il feedback fornito. I nudges non si sentono coercitivi; invece, sono potenzialmente in grado di potenziare.

Opzione 2: Crowdsourcing

Facebook potrebbe anche utilizzare il potere del crowdsourcing per aiutare a valutare le fonti di notizie e indicare quando le notizie condivise sono state valutate e valutate. Una sfida importante con le notizie false è che gioca a come il nostro cervello è cablato. Abbiamo scorciatoie mentali, chiamate distorsioni cognitive, che ci aiutano a prendere decisioni quando non abbiamo abbastanza informazioni (non lo facciamo mai), o abbastanza tempo (non lo facciamo mai). Generalmente queste scorciatoie funzionano bene per noi quando prendiamo decisioni su tutto, da quale percorso guidare a lavorare a quale auto comprare, ma, occasionalmente, ci falliscono. Falling for fake news è una di quelle istanze.

Questo può accadere a chiunque, persino a me. Nella stagione primaria, stavo seguendo un hashtag su Twitter su cui l'allora candidato principale Donald Trump ha twittato. È apparso un messaggio che ho trovato un po 'scioccante. L'ho ritwittato con un commento che derise la sua offensività. Il giorno dopo, mi sono reso conto che il tweet proviene da un account parodia che sembrava identico al nome di Twitter di Trump, ma aveva cambiato una lettera.

Mi è mancato perché mi ero innamorato bias di conferma - la tendenza a trascurare alcune informazioni perché è in contrasto con le mie aspettative, previsioni o intuizioni. In questo caso, avevo ignorato quella piccola voce che mi diceva che questo particolare tweet era un po 'esagerato per Trump, perché credevo che fosse in grado di produrre messaggi ancora più inappropriati. Le notizie false ci predano allo stesso modo.

Un altro problema con notizie false è che può viaggiare molto più lontano di qualsiasi correzione che potrebbe venire in seguito. Questo è simile alle sfide che hanno sempre affrontato le redazioni quando hanno segnalato informazioni errate. Sebbene pubblichino correzioni, spesso le persone originariamente esposte alla disinformazione non vedono mai l'aggiornamento e quindi non sanno che cosa hanno letto in precedenza è sbagliato. Inoltre, le persone tendono a mantenere la prima informazione che incontrano; le correzioni possono persino ritorcersi contro ripetendo informazioni errate e rafforzando l'errore nelle menti dei lettori.

Se le persone valutavano le informazioni mentre le leggevano e condividevano quelle valutazioni, i punteggi di verità, come i nudges, potevano essere parte dell'applicazione di Facebook. Ciò potrebbe aiutare gli utenti a decidere autonomamente se leggere, condividere o semplicemente ignorare. Una sfida con il crowdsourcing è che le persone possono giocare a questi sistemi per cercare di generare risultati distorti. Ma la bellezza del crowdsourcing è che la folla può anche classificare i valutatori, proprio come succede su Reddit o con le recensioni di Amazon, per ridurre gli effetti e il peso dei sobillatori.

Opzione 3: distanza sociale algoritmica

Il terzo modo in cui Facebook potrebbe aiutare sarebbe quello di ridurre il bias algoritmico che esiste attualmente in Facebook. Il sito mostra principalmente i post di coloro con cui ti sei impegnato su Facebook. In altre parole, l'algoritmo di Facebook crea ciò che alcuni hanno chiamato a bolla di filtro, un fenomeno di notizie online che ha studiosi interessati per decenni ora. Se sei esposto solo a persone con idee simili alla tua, questo porta a polarizzazione politica: I liberali diventano ancora più estremi nel loro liberalismo, ei conservatori diventano più conservatori.

La bolla del filtro crea una "camera dell'eco", in cui idee simili rimbalzano all'infinito, ma nuove informazioni ha difficoltà a trovare la sua strada in. Questo è un problema quando la camera dell'eco blocca le informazioni correttive o di controllo dei fatti.

Se Facebook dovesse aprire più notizie per entrare nel newsfeed di una persona da un gruppo casuale di persone nel proprio social network, aumenterebbe le possibilità che nuove informazioni, informazioni alternative e informazioni contraddittorie scorrano all'interno di quella rete. Il numero medio di gli amici nella rete di un utente di Facebook sono 338. Anche se molti di noi hanno amici e parenti che condividono i nostri valori e le nostre convinzioni, abbiamo anche conoscenti e estranei che fanno parte della nostra rete Facebook che hanno visioni diametralmente opposte. Se gli algoritmi di Facebook hanno portato più di questi punti di vista nelle nostre reti, la bolla del filtro sarebbe più porosa.

Tutte queste opzioni sono ben integrate con le capacità degli ingegneri e dei ricercatori di Facebook. Potrebbero consentire agli utenti di prendere decisioni migliori sulle informazioni che scelgono di leggere e condividere con i loro social network. Come piattaforma leader per la divulgazione di informazioni e un generatore di cultura sociale e politica attraverso la condivisione di informazioni e colloqui, Facebook non deve essere l'arbitro ultimo della verità. Ma può sfruttare la potenza dei suoi social network per aiutare gli utenti a valutare il valore degli articoli nel flusso di contenuti che devono affrontare.

The Conversation

Circa l'autore

Jennifer Stromer-Galley, professore di studi informativi, Syracuse University

Questo articolo è stato pubblicato in origine The Conversation. Leggi il articolo originale.

Libri correlati:

at InnerSelf Market e Amazon