È tempo di brillare di una luce sugli algoritmi che alimentano il grande fratello

L'ordinamento per algoritmo ci mette in scatole. Come sappiamo che sono quelli corretti? generato, CC BYL'ordinamento per algoritmo ci mette in scatole. Come sappiamo che sono quelli corretti? generato, CC BY

La società sembra destinata ad un punto in cui le nostre vite sono soggette al controllo degli algoritmi informatici. I dati che generiamo vengono analizzati e analizzati, sia dai governi per la sicurezza nazionale che dalle società a scopo di lucro, e questo è improbabile che cambino: la potenza e il fascino dell'analisi dei dati, una volta individuati, non verranno abbandonati facilmente.

Ma in verità mi chiedo se sono preoccupato più che i nostri dati vengano raccolti o dal fatto che non sappiamo nulla degli algoritmi che ci giudicano.

Il livello di dettaglio delle nostre vite e abitudini che possono essere disattese dai dati che lasciamo è stato discusso prima, e sta diventando una nuova messa in onda come parte del dibattito sulla bozza del Regno Unito Investigatory Powers Bill. Sappiamo almeno qualcosa su quali dati vengono raccolti e per quanto tempo è archiviato, alcuni dei quali sono regolati dalla legge britannica ed europea.

Nel testo del progetto di leggeAd esempio, sappiamo che il governo del Regno Unito chiederà "solo" (ingiustificato) accesso ai metadati delle comunicazioni, alle intestazioni e agli argomenti delle e-mail e alle registrazioni telefoniche. Ma sappiamo anche quanto i metadati rivelatori da soli possano essere: dare un'occhiata al Progetto Immersion del MIT Media Lab per un potente esempio di quanti dettagli possono essere determinati da esso. È certamente per nulla paragonabile a una bolletta telefonica dettagliata, come sostenuto.

Quindi, nel bene o nel male, il pubblico ha qualche indizio su ciò che viene registrato. Ma non abbiamo assolutamente idea di quali strumenti e tecniche analitici vengano applicati a questi dati - e il significato di questo non dovrebbe essere sottovalutato.

Cosa scricchiola i numeri?

Possiamo fare ipotesi plausibili. Le agenzie di sicurezza nazionali utilizzano probabilmente i nostri metadati per generare reti sociali tra persone e luoghi, tra le altre cose, collegandoci tra loro. Queste reti di relazioni saranno quindi analizzate per determinare se siamo una persona di interesse, determinata dal modo in cui ci si confronta con altre persone di interesse e dal modo in cui ci si connette alle persone di interesse esistenti oa quelle ad esse correlate.

I ricercatori che usano queste tecniche comprendono i loro limiti e che gli algoritmi che li alimentano possono contenere errori o presupposti che hanno un profondo effetto sul loro output. In questo caso, ciò può significare se sei etichettato come terrorista o meno, o se sei idoneo per un prestito o un mutuo.


Ricevi le ultime novità da InnerSelf


Inoltre, non è esattamente chiaro dove siano definite le aree di confine sfocate. Semplicemente visitare lo stesso sito web come un terrorista implica valori condivisi, o percorrere la stessa linea di autobus ogni giorno ti suggerisce di conversare regolarmente con i terroristi? È abbastanza possibile visitare siti frequentati da noti terroristi per molte ragioni legittime. Se ricevi le tue notizie dagli stessi siti Web dei terroristi, è più probabile che tu sia un terrorista? Discriminazione e pregiudizio può essere introdotto al punto di raccolta dei dati, e poi di nuovo quando vengono prese le decisioni su come analizzare tali dati. Anche gli algoritmi possono discriminare.

Confini sfocati

La possibilità che gli algoritmi introducano pregiudizi indesiderati è molto reale. Ad esempio, quelli utilizzati dai servizi di sicurezza sono addestrati su set di dati di noti terroristi e noti non terroristi. Questo significa che, come i terroristi più noti sono i maschi di età 20-30, è più probabile che tu sia classificato come terrorista semplicemente per essere maschio e invecchiato all'incirca 20-30, indipendentemente dalle tue altre caratteristiche ?. In tal caso, ciò ha un effetto significativo sul modo in cui i dati vengono utilizzati?

Il problema deriva dal fatto che io e altri ricercatori universitari che utilizzano tecniche complesse di analisi di rete, apprendimento automatico, abbinamento di modelli o intelligenza artificiale, il nostro uso di tali tecniche è sottoposto a revisione pubblica per determinare la forza delle tecniche e la validità delle conclusioni; i servizi di sicurezza governativi e le organizzazioni del settore privato no. Non abbiamo idea della qualità dei loro metodi e del modo in cui li distribuiscono. c'è una soluzione a questo?

Quelli provenienti da un altro campo della sicurezza, la crittografia, hanno imparato molto tempo fa che il modo migliore per migliorare la qualità, e quindi la sicurezza, dei suoi algoritmi era renderli pubblici. Implementazioni e cifrari crittografici vengono pubblicati e i ricercatori incoraggiati a cercare di trovare errori o difetti, migliorando così la sicurezza per tutti coloro che li utilizzano. Inoltre, qualsiasi implementazione di algoritmi crittografici a codice chiuso (non pubblico) è generalmente considerato con sospetto. Se devono pronunciarsi su di noi dei giudizi che cambiano la vita - se siamo etichettati come terroristi o finanziariamente indegni - lo stesso modello dovrebbe essere applicato agli algoritmi di sicurezza.

Un argomento contro tale mossa è che algoritmi aperti e trasparenti potrebbero portare i terroristi a modificare il loro comportamento nel mondo reale per evitare di essere scoperti. Ciò significherebbe cambiare le cose come le loro interazioni, associazioni, abitudini di navigazione e movimenti potenzialmente. Ma questo, se gli algoritmi funzionano correttamente, significherebbe che in pratica smetteranno di comportarsi da terroristi. Se la nostra futura sicurezza, libertà e sicurezza dipenderanno da questi algoritmi, dobbiamo essere certi di come - e che - lavorino.

Circa l'autoreThe Conversation

Philip Garnett, docente universitario, Università di York.

Questo articolo è stato pubblicato in origine The Conversation. Leggi il articolo originale.

Libro correlati:

{amazonWS: searchindex = Libri; Parole chiave utilizzate = 0393244814; maxresults = 1}

enafarZH-CNzh-TWnltlfifrdehiiditjakomsnofaptruessvtrvi

segui InnerSelf su

facebook-icontwitter-iconrss-icon

Ricevi l'ultimo tramite e-mail

{Emailcloak = off}