4 consente alle tue ricerche Google e ai social media di influenzare le tue opportunità nella vita

4 consente alle tue ricerche Google e ai social media di influenzare le tue opportunità nella vita
Shutterstock.

Che tu lo realizzi o acconsenta, i big data possono influenzarti e come vivi la tua vita. I dati che creiamo utilizzando i social media, navigando su internet e indossando fitness tracker sono tutti raccolti, classificati e utilizzati dalle imprese ed lo stato per creare profili di noi. Questi profili vengono quindi utilizzati per indirizzare annunci pubblicitari per prodotti e servizi a coloro che hanno maggiori probabilità di acquistarli o per informare le decisioni del governo.

I big data consentono agli stati e alle aziende di accedere, combinare e analizzare le nostre informazioni e creare rivelatori - ma incompleto e potenzialmente impreciso - profili delle nostre vite. Lo fanno identificando correlazioni e modelli nei dati su di noi e persone con profili simili a noi, per fare previsioni su ciò che potremmo fare.

Ma solo perché l'analisi dei big data si basa su algoritmi e statistiche, non significa che lo siano preciso, neutro o intrinsecamente obiettivo. E mentre i big data possono fornire spunti sul comportamento del gruppo, questi non sono necessariamente un modo affidabile per determinare il comportamento individuale. In effetti, questi metodi possono aprire la porta alla discriminazione ed minacciare i diritti umani delle persone - potrebbero persino lavorare contro di te. Ecco quattro esempi in cui l'analisi dei big data può portare all'ingiustizia.

1. Calcolo dei punteggi di credito

I big data possono essere utilizzati per prendere decisioni in merito idoneità al credito, a prescindere dal fatto che ti venga concesso un mutuo o da quanto è alto assicurazione auto i premi dovrebbero essere. Queste decisioni possono essere informate dal tuo post sui social media e i dati di altre app, che vengono presi per indicare il livello di rischio o affidabilità.

Ma dati come il tuo background di istruzione o il luogo in cui vivi potrebbero non essere pertinenti o affidabili per tali valutazioni. Questo tipo di dati può fungere da proxy per la razza o lo stato socioeconomico e il loro utilizzo per prendere decisioni in merito al rischio di credito potrebbe comportare discriminazioni.

2. Ricerche di lavoro

I big data possono essere utilizzati per determinare che vede un annuncio di lavoro o viene selezionato per un colloquio. Gli annunci di lavoro possono essere indirizzati a particolari gruppi di età, come i bambini di età compresa tra 25 e 36, che esclude anche i lavoratori più giovani e più anziani dal vedere determinate offerte di lavoro e presenta un rischio di discriminazione in base all'età.

L'automazione viene inoltre utilizzata per rendere più efficienti il ​​filtraggio, l'ordinamento e la classificazione dei candidati. Ma questo processo di screening può escludere le persone sulla base di indicatori come il distanza del loro tragitto giornaliero. I datori di lavoro potrebbero supporre che quelli con un pendolarismo più lungo abbiano meno probabilità di rimanere in un lavoro a lungo termine, ma ciò può effettivamente discriminare le persone che vivono più lontano dal centro della città a causa della posizione di alloggi a prezzi accessibili.


Ricevi le ultime novità da InnerSelf


3. Decisioni su parole e cauzione

Negli Stati Uniti e nel Regno Unito, vengono utilizzati modelli di valutazione del rischio per i big data per aiutare i funzionari a decidere se le persone sono autorizzate libertà vigilata o cauzioneo a cui si fa riferimento programmi di riabilitazione. Possono anche essere usati per valutare la quantità di rischio che un colpevole presenta alla società, che è uno dei fattori che un giudice potrebbe considerare quando decide la durata di una pena.

Non è chiaro esattamente quali dati vengono utilizzati per aiutare a fare queste valutazioni, ma come il passo verso polizia digitale aumenta il ritmo, è sempre più probabile che questi programmi includano informazioni open source come attività mediale sociale - se non lo fanno già.

Queste valutazioni possono non solo guardare il profilo di una persona, ma anche il modo in cui si confronta con quello degli altri. Alcune forze di polizia hanno storicamente sopravvissuto alcune comunità minoritarie, portando a un numero sproporzionato di incidenti criminali segnalati. Se questi dati vengono inseriti in un algoritmo, distorcono i modelli di valutazione del rischio e si traducono in una discriminazione che influisce direttamente il diritto alla libertà di una persona.

4. Verifica delle domande di visto

L'anno scorso, l'Istituto per l'immigrazione e le dogane (ICE) degli Stati Uniti ha annunciato l'intenzione di introdurre un sistema automatizzato "controllo del visto estremo" programma. Esaminerà automaticamente e continuamente gli account dei social media, per valutare se i richiedenti offriranno un "contributo positivo" agli Stati Uniti e se potrebbero sorgere problemi di sicurezza nazionale.

Oltre a presentare rischi per la libertà di pensiero, di opinione, di espressione e di associazione, esistevano rischi significativi che questo programma avrebbe discriminato le persone di determinate nazionalità o religioni. I commentatori lo ha caratterizzato come un "divieto musulmano con algoritmo".

Il programma è stato recentemente ritirato, secondo quanto riferito sulla base del fatto che "non esisteva un software" pronto all'uso "in grado di offrire la qualità del monitoraggio desiderato dall'agenzia". Tuttavia, includere tali obiettivi nei documenti sugli appalti può creare cattivi incentivi per l'industria tecnologica nello sviluppo di programmi discriminatori per progettazione.

The ConversationNon c'è dubbio che l'analisi dei big data funzioni in modi che possono influenzare le opportunità degli individui nella vita. Ma il mancanza di trasparenza su come i big data vengono raccolti, utilizzati e condivisi rende difficile per le persone sapere quali informazioni vengono utilizzate, come e quando. L'analisi dei big data è semplicemente troppo complicata per consentire alle persone di proteggere i propri dati da un uso inappropriato. Al contrario, gli stati e le aziende devono stabilire - e seguire - i regolamenti per garantire che il loro uso di big data non porti a discriminazioni.

Riguardo agli Autori

Lorna McGregor, Direttrice, Centro diritti umani, PI e condirettore, Sovvenzione per diritti umani, Big Data e tecnologia dell'ESRC, Università di Essex; Daragh Murray, docente di diritto internazionale dei diritti umani presso la Essex Law School, Università di Essexe Vivian Ng, Senior Researcher in Human Rights, Università di Essex

Questo articolo è stato pubblicato in origine The Conversation. Leggi il articolo originale.

Libri di questi autori:

{amazonWS: searchindex = Libri; parole chiave = Lorna McGregor; maxresults = 1}

{amazonWS: searchindex = Libri; parole chiave = Daragh Murray; maxresults = 2}

enafarZH-CNzh-TWnltlfifrdehiiditjakomsnofaptruessvtrvi

segui InnerSelf su

facebook-icontwitter-iconrss-icon

Ricevi l'ultimo tramite e-mail

{Emailcloak = off}

DAGLI EDITORI

Newsletter InnerSelf: agosto 30, 2020
by Staff di InnerSelf
Le strade che stiamo percorrendo in questi giorni sono vecchie come i tempi, ma sono nuove per noi. Le esperienze che stiamo vivendo sono vecchie come i tempi, ma sono anche nuove per noi. Lo stesso vale per il ...
Quando la verità è così terribile da far male, agisci
by Marie T. Russell, InnerSelf.com
In mezzo a tutti gli orrori che si verificano in questi giorni, sono ispirato dai raggi di speranza che brillano. La gente comune si batte per ciò che è giusto (e contro ciò che è sbagliato). Giocatori di baseball, ...
Quando la tua schiena è contro il muro
by Marie T. Russell, InnerSelf
Amo Internet. Ora so che molte persone hanno molte cose negative da dire al riguardo, ma lo adoro. Proprio come amo le persone della mia vita - non sono perfette, ma le amo comunque.
Newsletter InnerSelf: agosto 23, 2020
by Staff di InnerSelf
Tutti probabilmente possono essere d'accordo sul fatto che stiamo vivendo in tempi strani ... nuove esperienze, nuovi atteggiamenti, nuove sfide. Ma possiamo essere incoraggiati a ricordare che tutto è sempre in movimento, ...
Le donne nascono: fatti vedere, essere ascoltata e agire
by Marie T. Russell, InnerSelf
Ho chiamato questo articolo "Le donne nascono: sii vista, sii ascoltata e agisci", e mentre mi riferisco alle donne evidenziate nei video qui sotto, parlo anche di ognuna di noi. E non solo di quelli ...