Il nuovo divario digitale è tra le persone che rinunciano agli algoritmi e alle persone che non lo fanno Sai cosa succede quando condividi i tuoi dati? mtkang / shutterstock.com

Ogni aspetto della vita può essere guidato da algoritmi di intelligenza artificiale - dalla scelta del percorso da seguire per il pendolarismo mattutino, per decidere chi assumere una data, a complesse questioni giuridiche e giudiziarie come la polizia predittiva.

Le grandi aziende tecnologiche come Google e Facebook usano l'intelligenza artificiale per ottenere informazioni sul loro gigantesco trove di dati dettagliati dei clienti. Ciò consente loro di monetizzare le preferenze collettive degli utenti attraverso pratiche come il micro-targeting, una strategia utilizzata dagli inserzionisti per indirizzare in modo mirato specifici gruppi di utenti.

Parallelamente, molte persone ora si affidano a piattaforme e algoritmi più dei propri governi e della società civile. Uno studio 2018 di ottobre ha suggerito che le persone dimostrano "apprezzamento dell'algoritmo, "Nella misura in cui farebbero affidamento sui consigli più quando pensano che provenga da un algoritmo che da un umano.

In passato, gli esperti di tecnologia si sono preoccupati di a "Digital divide" tra quelli che potevano accedere ai computer e a Internet e quelli che non potevano. Le famiglie con un minore accesso alle tecnologie digitali sono svantaggiate nella loro capacità di guadagnare soldi e accumulare abilità.


innerself iscriviti alla grafica


Ma, mano a mano che i dispositivi digitali proliferano, il divario non riguarda più solo l'accesso. In che modo le persone affrontano il sovraccarico di informazioni e la pletora di decisioni algoritmiche che permeano ogni aspetto della loro vita?

Gli utenti più esperti stanno navigando lontano dai dispositivi e stanno diventando consapevoli di come gli algoritmi influenzano le loro vite. Nel frattempo, i consumatori che hanno meno informazioni si affidano ancora di più agli algoritmi per guidare le loro decisioni.

Dovresti rimanere connesso o scollegare la spina? Pryzmat / shutterstock.com

La salsa segreta dietro l'intelligenza artificiale

La ragione principale del nuovo divario digitale, a mio parere come qualcuno che studia i sistemi informativi, è questo così poche persone capiscono come funzionano gli algoritmi. Per la maggior parte degli utenti, gli algoritmi sono visti come una scatola nera.

Gli algoritmi IA contengono dati, li adattano a un modello matematico e generano una previsione, che va da quali canzoni potresti apprezzare a quanti anni qualcuno dovrebbe passare in prigione. Questi modelli sono sviluppati e ottimizzati in base ai dati passati e al successo dei modelli precedenti. La maggior parte delle persone - anche a volte gli stessi progettisti dell'algoritmo - non sanno veramente cosa succede all'interno del modello.

Ricercatori sono stato a lungo interessato sull'equità algoritmica. Ad esempio, lo strumento di reclutamento basato sull'intelligenza artificiale di Amazon si è rivelato efficace licenziare le candidate. Il sistema di Amazon stava estraendo in modo selettivo parole implicitamente di genere - parole che gli uomini sono più propensi a usare nella conversazione quotidiana, come "eseguito" e "catturato".

Altri studi hanno dimostrato che gli algoritmi giudiziari sono di parte razziale, condannando poveri imputati neri più a lungo di altri.

Come parte del regolamento generale sulla protezione dei dati nell'Unione europea, recentemente approvato, le persone lo hanno "Un diritto alla spiegazione" dei criteri che gli algoritmi utilizzano nelle loro decisioni. Questa legislazione tratta il processo del processo decisionale algoritmico come un ricettario. Il pensiero va che se capisci la ricetta, puoi capire come l'algoritmo influisce sulla tua vita.

Nel frattempo, alcuni ricercatori di IA hanno spinto per algoritmi che lo sono equo, responsabile e trasparente, così come interpretabile, nel senso che dovrebbero arrivare alle loro decisioni attraverso processi che gli umani possono comprendere e fidarsi.

Che effetto avrà la trasparenza? Nel uno studio, gli studenti sono stati valutati da un algoritmo e hanno offerto diversi livelli di spiegazione su come i punteggi dei loro compagni sono stati adeguati per raggiungere un voto finale. Gli studenti con spiegazioni più trasparenti si fidavano di meno dell'algoritmo. Questo, ancora una volta, suggerisce un divario digitale: la consapevolezza algoritmica non porta ad avere più fiducia nel sistema.

Ma la trasparenza non è una panacea. Anche quando viene delineato il processo generale di un algoritmo, i dettagli potrebbero essere ancora troppo complessi per gli utenti di comprendere. La trasparenza aiuterà solo gli utenti che sono abbastanza sofisticati da cogliere le complessità degli algoritmi.

Ad esempio, in 2014, Ben Bernanke, l'ex presidente della Federal Reserve, era inizialmente negato un rifinanziamento ipotecario da un sistema automatizzato. La maggior parte delle persone che chiedono un rifinanziamento ipotecario non comprenderebbe in che modo gli algoritmi potrebbero determinare la loro solvibilità.

Cosa dice oggi l'algoritmo? Maria Savenko / shutterstock.com

Disattivazione del nuovo ecosistema di informazioni

Mentre gli algoritmi influenzano così tanto la vita delle persone, solo una piccola parte dei partecipanti è abbastanza sofisticata da impegnarsi pienamente come gli algoritmi influenzano la loro vita.

Non ci sono molte statistiche sul numero di persone che sono consapevoli dell'algoritmo. Gli studi hanno trovato prove di ansia algoritmica, portando a un profondo squilibrio di potere tra piattaforme che implementano algoritmi e gli utenti che dipendono da loro.

Uno studio sull'uso di Facebook abbiamo scoperto che quando i partecipanti venivano messi al corrente dell'algoritmo di Facebook per la cura dei feed di notizie, circa il 83% dei partecipanti modificava il loro comportamento per cercare di sfruttare l'algoritmo, mentre attorno a 10% diminuiva il loro uso di Facebook.

Un rapporto 2018 di novembre del Pew Research Center ha rilevato che un'ampia maggioranza del pubblico aveva preoccupazioni significative circa l'uso di algoritmi per usi particolari. Scoprì che 66% pensava che non sarebbe corretto per gli algoritmi calcolare i punteggi delle finanze personali, mentre 57% ha detto lo stesso sullo screening automatico dei curriculum.

Una piccola parte di individui esercita un controllo sul modo in cui gli algoritmi utilizzano i propri dati personali. Ad esempio, la piattaforma Hu-Manity consente agli utenti un'opzione per controllare la quantità di dati raccolti. Enciclopedia online Everipedia offre agli utenti la possibilità di essere uno stakeholder nel processo di cura, il che significa che gli utenti possono anche controllare il modo in cui le informazioni vengono aggregate e presentate a loro.

Tuttavia, la stragrande maggioranza delle piattaforme non fornisce tale flessibilità ai propri utenti finali o il diritto di scegliere in che modo l'algoritmo utilizza le proprie preferenze nel curare il proprio feed di notizie o nel raccomandarne il contenuto. Se ci sono opzioni, gli utenti potrebbero non saperle. Circa 74% degli utenti di Facebook ha dichiarato in un sondaggio che lo erano non è a conoscenza di come la piattaforma caratterizzi i loro interessi personali.

Dal mio punto di vista, la nuova alfabetizzazione digitale non sta utilizzando un computer o è su Internet, ma comprende e valuta le conseguenze di uno stile di vita sempre inserito.

Questo stile di vita ha un impatto significativo come le persone interagiscono con gli altri; sulla loro capacità di prestare attenzione alle nuove informazioni; e via la complessità dei loro processi decisionali.

Aumentare l'ansia algoritmica può anche essere rispecchiata da spostamenti paralleli nell'economia. Un piccolo gruppo di persone sono catturare i guadagni dall'automazione, mentre molti lavoratori sono in a posizione precaria.

La rinuncia alla cura algoritmica è un lusso - e un giorno potrebbe essere un simbolo di benessere disponibile solo per pochi eletti. La domanda è quindi quali saranno i danni misurabili per chi sta dalla parte sbagliata del digital divide.

Circa l'autore

Anjana Susarla, professore associato di sistemi informativi, Michigan State University

Questo articolo è ripubblicato da The Conversation sotto una licenza Creative Commons. Leggi il articolo originale.

libri correlati

at InnerSelf Market e Amazon