Il problema di Facebook è più complicato di notizie false

Sulla scia della vittoria inaspettata di Donald Trump, molti sono stati sollevati sul ruolo di Facebook in la promozione di informazioni inaccurate e altamente partigiane durante la corsa presidenziale e se questa notizia falsa ha influenzato il risultato elettorale.

Alcuni hanno minimizzato L'impatto di Facebook, incluso l'amministratore delegato Mark Zuckerberg, che ha affermato che lo è "Estremamente improbabile" quella notizia falsa avrebbe potuto influenzare le elezioni. Ma le domande sul significato politico del social network meritano più dell'attenzione.

Fai di Facebook algoritmi di filtraggio spiegare perché così tanti liberali avevano perso la fiducia in una vittoria di Clinton (riecheggiando l'errore di Sostenitori di Romney in 2012)? Ed è le notizie false che circolano su Facebook la ragione per cui così tanti sostenitori di Trump hanno appoggiato dichiarazioni palesemente false fatte dal loro candidato?

L'affermazione popolare secondo cui "le bolle del filtro" sono il motivo per cui le notizie false che prosperano su Facebook è quasi certamente sbagliata. Se la rete incoraggia le persone a credere alle falsità - e questo è un grande se - il problema è più probabile nel modo in cui la piattaforma interagisce con le tendenze sociali umane di base. È molto più difficile da cambiare.

Un pubblico disinformato

Il ruolo di Facebook nella diffusione di notizie politiche è innegabile. A maggio 2016, 44 percentuale di americani hanno detto di aver ricevuto notizie dal sito dei social media. E la prevalenza della disinformazione diffusa attraverso Facebook è innegabile.


innerself iscriviti alla grafica


È plausibile, quindi, che la quantità di notizie false su una piattaforma in cui così tante persone ricevono le loro notizie possa aiutare a spiegare perché così tanti americani sono disinformati riguardo alla politica.

Ma è difficile dire quanto sia probabile questo. Ho iniziato a studiare il ruolo di internet nel promuovere false credenze durante le elezioni 2008, rivolgendo la mia attenzione ai social media in 2012. Nella ricerca in corso, ho trovato poche prove consistenti che l'uso dei social media abbia promosso l'accettazione di false affermazioni sui candidati, nonostante il prevalenza di molte menzogne. Invece, sembra che in 2012, come in 2008, l'e-mail ha continuato a essere un condotto straordinariamente potente per bugie e teorie del complotto. I social media non hanno alcun effetto attendibilmente rilevabile sulle convinzioni della gente.

Per un momento, tuttavia, supponiamo che 2016 fosse diverso da 2012 e 2008. (L'elezione è stata certamente unica in molti altri aspetti.)

Se Facebook sta promuovendo una piattaforma in cui i cittadini sono meno in grado di discernere la verità dalla finzione, costituirebbe una seria minaccia per la democrazia americana. Ma nominare il problema non è abbastanza. Per combattere il flusso di disinformazione attraverso i social media, è importante capire perché accade.

Non incolpare le bolle del filtro

Facebook vuole che i suoi utenti siano coinvolti, non sopraffatti, quindi utilizza software proprietario che filtra i feed delle notizie degli utenti e sceglie il contenuto che apparirà. Il rischio sta nel modo in cui è fatto questo adattamento.

Ci sono ampie prove che le persone sono attratte da notizie che affermano il loro punto di vista politico. Il software di Facebook apprende dalle azioni passate degli utenti; prova a indovinare quali storie sono suscettibili di fare clic o condividere in futuro. Portato all'estremo, questo produce a bolla di filtro, in cui gli utenti sono esposti solo ai contenuti che riaffermano i loro pregiudizi. Il rischio, quindi, è quello le bolle filtranti promuovono percezioni errate nascondendo la verità.

L'appello di questa spiegazione è ovvio. È facile da capire, quindi forse sarà facile da risolvere. Sbarazzati dei feed di notizie personalizzati e le bolle di filtro non sono più.

Il problema con la metafora della bolla del filtro è che presuppone che le persone siano perfettamente isolate da altre prospettive. Infatti, numerose studi avere mostrato le diete dei singoli individui includono quasi sempre informazioni e fonti che mettono in discussione i loro atteggiamenti politici. E uno studio dei dati degli utenti di Facebook trovato che l'incontro con informazioni trasversali è molto diffuso. In altre parole, è improbabile che le false credenze vengano spiegate dalle persone mancanza di contatto con notizie più accurate.

Invece, le identità politiche preesistenti delle persone modellano profondamente le loro credenze. Quindi, anche di fronte alle stesse informazioni, se si tratta di a articolo di notizie o controllo di fatto, le persone con diversi orientamenti politici spesso estrapolano un significato drammaticamente diverso.

Un esperimento mentale può aiutarti: se fossi un sostenitore di Clinton, sapevi che il sito di previsione FiveThirtyEight? ha dato a Clinton solo una probabilità di 71% di vincere? Quelle probabilità sono migliori di un coin flip, ma lontano da una cosa sicura. Sospetto che molti democratici siano rimasti scioccati nonostante abbiano visto queste scomode prove. Infatti, molti erano stati critici di questa proiezione nei giorni precedenti l'elezione.

Se hai votato per Trump, hai mai incontrato prove che contestano l'affermazione di Trump che la frode elettorale è comune negli Stati Uniti? Dama di fatto ed organizzazioni di notizie hanno coperto ampiamente questo problema, offrendo una solida evidenza che l'affermazione non è vera. Tuttavia, un sostenitore di Trump potrebbe essere impassibile: In un sondaggio 2016 di settembre, 90 per cento dei sostenitori di Trump ha dichiarato di non fidarsi dei controllori di fatto.

Facebook = partigiani arrabbiati?

Se l'isolamento dalla verità è davvero la fonte principale di informazioni inaccurate, la soluzione sarebbe ovvia: rendere la verità più visibile.

Sfortunatamente, la risposta non è così semplice. Il che ci riporta alla domanda di Facebook: ci sono altri aspetti del servizio che potrebbero distorcere le convinzioni degli utenti?

Ci vorrà un po 'di tempo prima che i ricercatori possano rispondere a questa domanda con sicurezza, ma come qualcuno che ha studiato come i vari modi con cui le altre tecnologie Internet possono indurre le persone a credere a false informazioni, sono pronto a offrire alcune ipotesi plausibili.

Ci sono due cose che sappiamo già su Facebook che potrebbero incoraggiare la diffusione di informazioni false.

Innanzitutto, le emozioni sono contagiose e possono diffondersi su Facebook. Uno studio su larga scala ha mostrato piccoli cambiamenti nei feed di notizie degli utenti di Facebook può modellare le emozioni che esprimono nei post successivi. In questo studio, i cambiamenti emotivi erano piccoli, ma lo erano anche i cambiamenti nel feed delle notizie. Immagina solo come gli utenti di Facebook rispondano alle accuse diffuse di corruzione dei candidati, attività criminali e menzogne. Non è sorprendente quasi metà (49 percento) di tutti gli utenti hanno descritto la discussione politica sui social media come "arrabbiata".

Quando si parla di politica, la rabbia è un'emozione potente. È stato dimostrato di fare persone più disposto ad accettare le falsità partigiane e più probabile pubblicare e condividere informazione politicapresumibilmente includendo articoli di notizie false che rafforzano le loro convinzioni. Se l'uso di Facebook rende i partigiani arrabbiati mentre li espone anche a falsità partigiane, assicurare la presenza di informazioni accurate potrebbe non avere molta importanza. Repubblicano o Democratico, le persone arrabbiate si affidano alle informazioni che rendono la loro parte un bell'aspetto.

In secondo luogo, Facebook sembra rafforzare l'identità politica delle persone - promuovendo una già grande divisione partigiana. Mentre Facebook non protegge le persone dalle informazioni con cui non sono d'accordo, certamente rende più facile trovare altri che la pensano allo stesso modo. I nostri social network tendono ad includere molte persone che condividono i nostri valori e le nostre credenze. E questo potrebbe essere un altro modo in cui Facebook rinforza le menzogne ​​motivate politicamente. I credenti spesso servono una funzione sociale, aiutando le persone a definire chi sono e come si adattano al mondo. Più è facile per le persone vedersi in termini politici, più sono attaccati alle credenze che affermano tale identità.

Questi due fattori - il modo in cui la rabbia può diffondersi sui social network di Facebook e in che modo queste reti possono rendere l'identità politica degli individui più centrale rispetto a chi sono - probabilmente spiegano le convinzioni inaccurate degli utenti di Facebook in modo più efficace rispetto alla cosiddetta bolla del filtro.

Se questo è vero, allora abbiamo una seria sfida davanti a noi. Probabilmente Facebook sarà convinto di cambiare il suo algoritmo di filtraggio per dare la priorità a informazioni più accurate. Google ha già intrapreso uno sforzo simile. E i rapporti recenti suggeriscono che Facebook potrebbe essere prendendo il problema più seriamente di quanto suggeriscono i commenti di Zuckerberg.

Ma questo non fa nulla per affrontare le forze sottostanti che propagano e rafforzano le false informazioni: le emozioni e le persone nei tuoi social network. Né è ovvio che queste caratteristiche di Facebook possano o debbano essere "corrette". Un social network privo di emozioni sembra una contraddizione e la polizia con cui le persone interagiscono non è qualcosa che la nostra società dovrebbe abbracciare.

Potrebbe essere che condivide Facebook alcuni della colpa per alcuni delle menzogne ​​che hanno fatto circolare questo anno elettorale e che hanno alterato il corso delle elezioni.

Se è vero, la sfida sarà capire cosa possiamo fare al riguardo.

The Conversation

Circa l'autore

R. Kelly Garrett, Professore associato di comunicazione, The Ohio State University

Questo articolo è stato pubblicato in origine The Conversation. Leggi il articolo originale.

libri correlati

at InnerSelf Market e Amazon