Come chiunque, anche te, potrebbe diventare un troll di Internet

I troll di Internet, per definizione, sono dirompenti, combattivi e spesso spiacevoli con i loro post online offensivi o provocatori progettati per disturbare e turbare.

L'idea comune è che le persone che sono troll sono diverse dal resto di noi, dandoci la libertà di licenziarli e il loro comportamento. Ma un nuovo studio suggerisce altrimenti: nelle giuste circostanze, chiunque può diventare un troll.

"Volevamo capire perché il trolling è così diffuso oggi", dice Justin Cheng, ricercatore di informatica alla Stanford University e autore principale del nuovo lavoro. "Mentre la conoscenza comune è che i troll sono individui particolarmente sociopatici che occasionalmente appaiono nelle conversazioni, sono davvero solo queste persone che stanno trollando gli altri?"

Cattivi stati d'animo

Il comportamento alla traina è una caratteristica innata o i fattori situazionali possono influenzare le persone a comportarsi come troll? Per scoprirlo, i ricercatori hanno utilizzato una combinazione di sperimentazione, analisi dei dati e apprendimento automatico e sono approdati su alcuni semplici fattori che rendono la persona media più probabile a troll.

In seguito a precedenti ricerche sul comportamento antisociale, i ricercatori hanno deciso di concentrarsi su come l'umore e il contesto influenzano ciò che le persone scrivono in un forum di discussione. Hanno organizzato un esperimento in due parti con soggetti 667 reclutati attraverso una piattaforma di crowdsourcing.

Nella prima parte dell'esperimento, ai partecipanti è stato dato un test, che è stato molto facile o molto difficile. Dopo aver effettuato i test, tutti i soggetti hanno compilato un questionario che ha valutato varie sfaccettature del loro umore, tra cui rabbia, stanchezza, depressione e tensione. Come previsto, le persone che hanno completato il difficile test erano di umore peggiore rispetto a quelle che hanno avuto il test facile.


innerself iscriviti alla grafica


A tutti i partecipanti è stato quindi chiesto di leggere un articolo e di impegnarsi nella sezione dei commenti. Dovevano lasciare almeno un commento, ma potevano lasciare più commenti e voti positivi e negativi e potevano rispondere ad altri commenti. Tutti i partecipanti hanno visto lo stesso articolo sulla stessa piattaforma, creato esclusivamente per l'esperimento, ma ad alcuni partecipanti è stato assegnato un forum con tre post troll nella parte superiore della sezione dei commenti. Altri hanno visto tre post neutri.

Due esperti indipendenti hanno valutato se i posti lasciati da soggetti qualificati come trolling, definiti in genere in questa ricerca da una combinazione di linee guida di pubblicazione prese da diversi forum di discussione. Ad esempio, attacchi personali e maledizioni erano indicativi di messaggi di troll.

A proposito di 35, la percentuale di persone che hanno completato il test facile e ha visto post neutri ha quindi pubblicato i propri commenti troll. Quella percentuale è salita a 50 per cento se il soggetto ha eseguito il test o ha visto i commenti di trolling. Le persone esposte sia al test difficile che ai messaggi di troll hanno fatto oscillare approssimativamente la 68 delle volte.

Per mettere in relazione queste intuizioni sperimentali con il mondo reale, i ricercatori hanno anche analizzato i dati resi anonimi dalla sezione commenti della CNN di tutto 2012. I dati consistevano di utenti 1,158,947, discussioni 200,576 e post 26,552,104 e includevano utenti e post vietati che venivano eliminati dai moderatori. In questa parte della ricerca, il team ha definito i post sui troll come quelli che sono stati segnalati dai membri della comunità per abuso.

"Spirale della negatività"

Non è stato possibile valutare direttamente l'umore dei commentatori, ma i ricercatori hanno osservato il timestamp dei post perché la ricerca precedente ha dimostrato che l'ora del giorno e il giorno della settimana corrispondono all'umore. Gli episodi di voti bassi e posti in evidenza erano allineati strettamente con modelli consolidati di umore negativo. Tali incidenti tendono ad aumentare fino a tarda notte e all'inizio della settimana, che è anche quando le persone hanno più probabilità di essere di cattivo umore.

I ricercatori hanno studiato ulteriormente gli effetti dell'umore e hanno scoperto che le persone avevano più probabilità di produrre un post contrassegnato se erano stati recentemente segnalati o se avevano preso parte a una discussione separata che includeva solo post segnalati scritti da altri. Questi risultati erano veri indipendentemente dall'articolo associato alla discussione.

"È una spirale di negatività", afferma Jure Leskovec, professore associato di informatica e autore senior del giornale. "Solo una persona che si sveglia con l'irritazione può creare una scintilla e, a causa del contesto di discussione e del voto, queste scintille possono trasformarsi in una spirale di cattivi comportamenti. Le cattive conversazioni portano a conversazioni sbagliate. Le persone che vengono down-votate tornano di più, commentano di più e commentano ancora peggio. "

Prevedere i messaggi contrassegnati

Come ultimo passo nella loro ricerca, il team ha creato un algoritmo di apprendimento automatico incaricato di prevedere se il prossimo post che un autore avrebbe scritto sarebbe stato contrassegnato.

Le informazioni fornite all'algoritmo includevano il timestamp dell'ultimo post dell'autore, se l'ultimo post è stato contrassegnato, se il post precedente nella discussione è stato contrassegnato, la cronologia complessiva dell'autore di scrivere i post segnalati e l'ID utente anonimo dell'autore .

I risultati hanno mostrato che lo stato di bandiera del post precedente nella discussione era il più forte predittore di se il prossimo post sarebbe stato contrassegnato. Le caratteristiche relative all'umore, come i tempi e le precedenti segnalazioni del commentatore, erano molto meno predittive. La storia dell'utente e l'ID utente, sebbene in qualche modo predittivi, erano ancora significativamente meno informativi del contesto di discussione. Ciò implica che, mentre alcune persone possono essere costantemente più inclini a trolling, il contesto in cui pubblichiamo è più probabile che porti alla pesca alla traina.

Divieti Ombra e periodi di defaticamento?

Tra la vera vita, l'analisi dei dati su larga scala, l'esperimento e il compito predittivo, i risultati sono stati forti e coerenti. I ricercatori suggeriscono che il contesto e l'umore della conversazione possono portare alla pesca alla traina. Credono che questo potrebbe informare la creazione di migliori spazi di discussione online.

"Capire cosa determina effettivamente qualcuno che si comporta in modo antisociale è essenziale se vogliamo migliorare la qualità delle discussioni online", afferma Cristian Danescu-Niculescu-Mizil, assistente professore di scienze dell'informazione presso la Cornell University e coautore del documento. "La comprensione dei meccanismi causali sottostanti potrebbe informare la progettazione di sistemi che incoraggiano una discussione online più civile e potrebbe aiutare i moderatori a mitigare la pesca a traina in modo più efficace".

Gli interventi per prevenire la pesca alla traina potrebbero includere forum di discussione che raccomandano un periodo di riflessione ai commentatori che hanno appena segnalato un post, sistemi che avvisano automaticamente i moderatori di un post che probabilmente è un post di troll o "divieto di ombra", nascondendo i post dei troll da utenti non troll senza notifica al troll.

I ricercatori credono che studi come questo siano solo l'inizio di un lavoro che è stato necessario per qualche tempo, dal momento che Internet è ben lungi dall'essere il villaggio in tutto il mondo di un cordiale dibattito e discussione una volta pensato che sarebbe diventato.

"Alla fine della giornata, ciò che questa ricerca sta davvero suggerendo è che siamo noi che stiamo causando questi guasti in discussione", dice il coautore Michael Bernstein, assistente professore di informatica presso Stanford. "Molti siti di notizie hanno rimosso i loro sistemi di commenti perché pensano che sia contrario al dibattito e alla discussione reali. Capire i nostri sé migliori e peggiori qui è la chiave per riportarli indietro ".

I carta è stato pubblicato come parte della prossima 2017 Conference su Computer Cooperated Work and Social Computing.

Fonte: Università di Stanford

libri correlati

at InnerSelf Market e Amazon