4 consente alle tue ricerche Google e ai social media di influenzare le tue opportunità nella vita

4 consente alle tue ricerche Google e ai social media di influenzare le tue opportunità nella vita
Shutterstock.

Che tu lo realizzi o acconsenta, i big data possono influenzarti e come vivi la tua vita. I dati che creiamo utilizzando i social media, navigando su internet e indossando fitness tracker sono tutti raccolti, classificati e utilizzati dalle imprese e lo stato per creare profili di noi. Questi profili vengono quindi utilizzati per indirizzare annunci pubblicitari per prodotti e servizi a coloro che hanno maggiori probabilità di acquistarli o per informare le decisioni del governo.

I big data consentono agli stati e alle aziende di accedere, combinare e analizzare le nostre informazioni e creare rivelatori - ma incompleto e potenzialmente impreciso - profili delle nostre vite. Lo fanno identificando correlazioni e modelli nei dati su di noi e persone con profili simili a noi, per fare previsioni su ciò che potremmo fare.

Ma solo perché l'analisi dei big data si basa su algoritmi e statistiche, non significa che lo siano preciso, neutro o intrinsecamente obiettivo. E mentre i big data possono fornire spunti sul comportamento del gruppo, questi non sono necessariamente un modo affidabile per determinare il comportamento individuale. In effetti, questi metodi possono aprire la porta alla discriminazione e minacciare i diritti umani delle persone - potrebbero persino lavorare contro di te. Ecco quattro esempi in cui l'analisi dei big data può portare all'ingiustizia.

1. Calcolo dei punteggi di credito

I big data possono essere utilizzati per prendere decisioni in merito idoneità al credito, a prescindere dal fatto che ti venga concesso un mutuo o da quanto è alto assicurazione auto i premi dovrebbero essere. Queste decisioni possono essere informate dal tuo post sui social media e i dati di altre app, che vengono presi per indicare il livello di rischio o affidabilità.

Ma dati come il tuo background di istruzione o il luogo in cui vivi potrebbero non essere pertinenti o affidabili per tali valutazioni. Questo tipo di dati può fungere da proxy per la razza o lo stato socioeconomico e il loro utilizzo per prendere decisioni in merito al rischio di credito potrebbe comportare discriminazioni.

2. Ricerche di lavoro

I big data possono essere utilizzati per determinare che vede un annuncio di lavoro o viene selezionato per un colloquio. Gli annunci di lavoro possono essere indirizzati a particolari gruppi di età, come i bambini di età compresa tra 25 e 36, che esclude anche i lavoratori più giovani e più anziani dal vedere determinate offerte di lavoro e presenta un rischio di discriminazione in base all'età.

L'automazione viene inoltre utilizzata per rendere più efficienti il ​​filtraggio, l'ordinamento e la classificazione dei candidati. Ma questo processo di screening può escludere le persone sulla base di indicatori come il distanza del loro tragitto giornaliero. I datori di lavoro potrebbero supporre che quelli con un pendolarismo più lungo abbiano meno probabilità di rimanere in un lavoro a lungo termine, ma ciò può effettivamente discriminare le persone che vivono più lontano dal centro della città a causa della posizione di alloggi a prezzi accessibili.


Ricevi le ultime novità da InnerSelf


3. Decisioni su parole e cauzione

Negli Stati Uniti e nel Regno Unito, vengono utilizzati modelli di valutazione del rischio per i big data per aiutare i funzionari a decidere se le persone sono autorizzate libertà vigilata o cauzioneo a cui si fa riferimento programmi di riabilitazione. Possono anche essere usati per valutare la quantità di rischio che un colpevole presenta alla società, che è uno dei fattori che un giudice potrebbe considerare quando decide la durata di una pena.

Non è chiaro esattamente quali dati vengono utilizzati per aiutare a fare queste valutazioni, ma come il passo verso polizia digitale aumenta il ritmo, è sempre più probabile che questi programmi includano informazioni open source come attività mediale sociale - se non lo fanno già.

Queste valutazioni possono non solo guardare il profilo di una persona, ma anche il modo in cui si confronta con quello degli altri. Alcune forze di polizia hanno storicamente sopravvissuto alcune comunità minoritarie, portando a un numero sproporzionato di incidenti criminali segnalati. Se questi dati vengono inseriti in un algoritmo, distorcono i modelli di valutazione del rischio e si traducono in una discriminazione che influisce direttamente il diritto alla libertà di una persona.

4. Verifica delle domande di visto

L'anno scorso, l'Istituto per l'immigrazione e le dogane (ICE) degli Stati Uniti ha annunciato l'intenzione di introdurre un sistema automatizzato "controllo del visto estremo" programma. Esaminerà automaticamente e continuamente gli account dei social media, per valutare se i richiedenti offriranno un "contributo positivo" agli Stati Uniti e se potrebbero sorgere problemi di sicurezza nazionale.

Oltre a presentare rischi per la libertà di pensiero, di opinione, di espressione e di associazione, esistevano rischi significativi che questo programma avrebbe discriminato le persone di determinate nazionalità o religioni. I commentatori lo ha caratterizzato come un "divieto musulmano con algoritmo".

Il programma è stato recentemente ritirato, secondo quanto riferito sulla base del fatto che "non esisteva un software" pronto all'uso "in grado di offrire la qualità del monitoraggio desiderato dall'agenzia". Tuttavia, includere tali obiettivi nei documenti sugli appalti può creare cattivi incentivi per l'industria tecnologica nello sviluppo di programmi discriminatori per progettazione.

The ConversationNon c'è dubbio che l'analisi dei big data funzioni in modi che possono influenzare le opportunità degli individui nella vita. Ma il mancanza di trasparenza su come i big data vengono raccolti, utilizzati e condivisi rende difficile per le persone sapere quali informazioni vengono utilizzate, come e quando. L'analisi dei big data è semplicemente troppo complicata per consentire alle persone di proteggere i propri dati da un uso inappropriato. Al contrario, gli stati e le aziende devono stabilire - e seguire - i regolamenti per garantire che il loro uso di big data non porti a discriminazioni.

Riguardo agli Autori

Lorna McGregor, Direttrice, Centro diritti umani, PI e condirettore, Sovvenzione per diritti umani, Big Data e tecnologia dell'ESRC, Università di Essex; Daragh Murray, docente di diritto internazionale dei diritti umani presso la Essex Law School, Università di Essexe Vivian Ng, Senior Researcher in Human Rights, Università di Essex

Questo articolo è stato pubblicato in origine The Conversation. Leggi il articolo originale.

Libri di questi autori:

{amazonWS: searchindex = Libri; parole chiave = Lorna McGregor; maxresults = 1}

{amazonWS: searchindex = Libri; parole chiave = Daragh Murray; maxresults = 2}

enafarZH-CNzh-TWnltlfifrdehiiditjakomsnofaptruessvtrvi

segui InnerSelf su

facebook-icontwitter-iconrss-icon

Ricevi l'ultimo tramite e-mail

{Emailcloak = off}