Come Uber e altre piattaforme digitali possono ingannarci usando la scienza comportamentale

Come Uber e altre piattaforme digitali possono ingannarci usando la scienza comportamentale La tua posizione non è tutto ciò che sa. AP Photo / Mary Altaffer

Il modello di business di Uber è incredibilmente semplice: è una piattaforma che facilita gli scambi tra le persone. E Uber ha avuto un incredibile successo, quasi eliminando i costi di transazione of fare affari in tutto, dallo spingere le persone in giro per la città a consegnare il cibo.

Se usi Uber - o forse anche se non lo fai - Conosce un tesoro di dati su di te, tra cui la tua posizione, sesso, cronologia delle spese, contatti, livello della batteria del telefono e persino se sei sulla strada di casa da una bancarella di una notte. Potrebbe presto sapere se sei ubriaco o non.

Mentre è abbastanza spaventoso, combina tutti i dati con La competenza di Uber analizzandolo attraverso la lente di scienza comportamentale e hai un potenziale pericoloso per sfruttare gli utenti a scopo di lucro.

Uber è a malapena da solo. La nostra ricerca mostra le più grandi piattaforme digitali - Airbnb, Facebook, eBay e altri - stanno raccogliendo così tanti dati su come viviamo, che hanno già la capacità di manipolare i loro utenti su larga scala. Possono prevedere il comportamento e influenzare le nostre decisioni su dove cliccare, condividere e spendere.

Mentre la maggior parte delle piattaforme non utilizza ancora tutte queste funzionalità, la manipolazione attraverso tecniche di psicologia comportamentale può avvenire in silenzio e lasciare poche tracce. Se non stabiliremo le regole della strada ora, sarà molto più difficile da rilevare e fermare più tardi.

'Scelta dell'architettura'

Una piattaforma può essere qualsiasi spazio che facilita le transazioni tra acquirenti e venditori. Esempi tradizionali includono mercati delle pulci e piani commerciali.

Una piattaforma digitale ha lo stesso scopo ma offre al proprietario la possibilità di "mediare" i suoi utenti mentre lo usano, e spesso quando non lo sono. Con ciò intendiamo che può osservare e apprendere un'incredibile quantità di informazioni sul comportamento degli utenti al fine di perfezionare ciò che gli scienziati comportamentali chiamano "architetture scelte, "Elementi di design non apparenti intesi a influenzare il comportamento umano attraverso il modo in cui vengono presentate le decisioni.

Come Uber e altre piattaforme digitali possono ingannarci usando la scienza comportamentale Uber sa quando la batteria del tuo telefono si sta scaricando. boyhey / Shutterstock.com

Ad esempio, Uber ha sperimentato con i suoi driver determinare le strategie più efficaci per tenerle in viaggio il più a lungo possibile. Queste strategie includono la partecipazione a pregiudizi cognitivi come l'avversione alla perdita e la sovrastima di eventi a bassa probabilità, anche se un autista sta guadagnando a malapena abbastanza denaro per renderlo prezioso. I driver finiscono come giocatori d'azzardo in un casinò, spinti a giocare solo un po 'di più, nonostante le probabilità.

Uber non ha risposto immediatamente a una richiesta di commento.

Airbnb sperimenta anche con i suoi utenti. Ha usato la scienza comportamentale per far sì che i padroni di casa abbassino le loro tariffe e accettino le prenotazioni senza schermare gli ospiti, il che crea rischi reali per gli ospiti, in particolare quando condividono il proprio appartamento.

Mentre questi esempi sembrano relativamente benigni, dimostrano come le piattaforme digitali siano in grado di progettare silenziosamente i sistemi per indirizzare le azioni degli utenti in modi potenzialmente manipolativi.

E man mano che le piattaforme crescono, diventano solo migliori architetti scelti. Con il suo enorme afflusso di investimenti da parte dell'IPO per finanziare più dati e scienza comportamentale, Uber potrebbe spostarsi in un territorio pericolosamente immorale, facile da immaginare date le sue pratiche passate.

Ad esempio, se l'app riconosce che sei ubriaco o in un quartiere in cui viaggi raramente e che i suoi dati mostrano un alto livello di criminalità, potrebbe farti pagare una tariffa più alta, sapendo che è improbabile che tu rifiuti.

sfide legali

E non tutte le speculazioni.

Nel tentativo di ingannare le forze dell'ordine cercando di indagare sulla società, in realtà Uber trovato un modo per identificare i regolatori del governo cercando di utilizzare la sua app e quindi impedito loro di ottenere corse.

Questa è una ragione per legislatori e regolatori abbiamo discusso i ruoli difficili e interdipendenti della scienza comportamentale e della tecnologia per anni. E alcune aziende Uber in particolare, sono stati studiati per una serie di pratiche commerciali scorrette, da discriminazione a uso improprio dei dati dell'utente.

Ma la maggior parte della manipolazione che abbiamo identificato e preoccupato non è espressamente illegale. E poiché i regolatori sono spesso incapaci di tenere il passo con l'uso in continua evoluzione della tecnologia e dell'architettura scelta, è probabile che rimanga tale.

Data l'assenza di guardie legali ben definite e attuabili, la propensione delle società di piattaforme a sfruttare la scienza comportamentale a spese degli utenti rimarrà in gran parte incontrollata.

Un codice etico

Una soluzione, a nostro avviso, sta stabilendo un codice etico da seguire per le aziende di piattaforme. E se non lo adottano volentieri, investitori, dipendenti e utenti potrebbero richiederlo.

Dalla metà del 20 secolo, codici scritti di condotta etica sono stato un punto fermo di società statunitensi. Le professioni legali e mediche si sono basati su di loro for millenni. E la ricerca suggerisce sono efficaci nell'incoraggiare comportamenti etici nelle aziende.

Abbiamo esaminato centinaia di codici etici, compresi quelli mirati alle società informatiche e informatiche. Sulla base della nostra ricerca, sollecitiamo le piattaforme digitali ad adottare cinque linee guida etiche:

  1. Tutta l'architettura scelta utilizzata su una piattaforma dovrebbe essere completamente trasparente. Le piattaforme dovrebbero rivelare quando utilizzano gli strumenti della scienza comportamentale per influenzare il comportamento degli utenti

  2. Gli utenti dovrebbero essere in grado di fare scelte sulla piattaforma liberamente e facilmente, e gli architetti di scelta dovrebbero limitare gli interventi comportamentali a solleciti o suggerimenti che sono meno dannosi per l'autonomia dell'utente

  3. Le piattaforme dovrebbero evitare di "stuzzicare" gli utenti in modo da sfruttare decisioni decisionali inconsce e irrazionali basate su impulso ed emozione. Una nuova ricerca dimostra che l'architettura delle scelte trasparenti può funzionare altrettanto bene

  4. Le piattaforme dovrebbero riconoscere il potere che possiedono e fare attenzione a non sfruttare i mercati che hanno creato, anche abusando di asimmetrie informative tra loro e gli utenti o opponendosi a regolamenti ragionevoli

  5. Le piattaforme dovrebbero evitare l'uso di un'architettura di scelta che scoraggi gli utenti dall'agire nel loro stesso interesse. Come economista comportamentale vincitore del premio Nobel Richard Thaler metterlo, dovremmo solo "spingere per sempre".

Le grandi scienze tecnologiche e comportamentali sono ora integrate in modi che stanno rendendo le aziende selvaggiamente vincenti spazzolini da denti ronzanti che fare pulendo i denti sembra gratificante usando i testi per spingere le madri più povere a usare l'assistenza sanitaria.

Mentre i risultati possono migliorare significativamente le nostre vite, rende anche più facile che mai per le aziende di manipolare gli utenti per migliorare i loro risultati economici.The Conversation

Riguardo agli Autori

Abbey Stemler, ricercatrice di diritto commerciale ed etica, Indiana University; Joshua E. Perry, professore associato di diritto commerciale ed etica, Indiana Universitye Todd Haugh, ricercatore di diritto commerciale ed etica, Indiana University

Questo articolo è ripubblicato da The Conversation sotto una licenza Creative Commons. Leggi il articolo originale.

libri correlati

{amazonWS: searchindex = Libri; parole chiave = privacy digitale; maxresults = 3}

enafarZH-CNzh-TWnltlfifrdehiiditjakomsnofaptruessvtrvi

segui InnerSelf su

facebook-icontwitter-iconrss-icon

Ricevi l'ultimo tramite e-mail

{Emailcloak = off}