In che modo la privacy differenziale protegge i tuoi dati? Marco Verch / Flickr, CC BY 

Le aziende tecnologiche possono utilizzare la privacy differenziale per raccogliere e condividere dati aggregati sulle abitudini degli utenti, pur mantenendo la privacy individuale.

Non è un segreto che le grandi aziende tecnologiche come Facebook, Google, Apple e Amazon si stanno sempre più infiltrando nelle nostre interazioni personali e sociali per raccogliere enormi quantità di dati su di noi ogni giorno. Allo stesso tempo, le violazioni della privacy nel cyberspazio fanno regolarmente notizia in prima pagina.

Quindi, come dovrebbe essere protetta la privacy in un mondo in cui i dati vengono raccolti e condivisi con maggiore velocità e ingegno?

La privacy differenziale è un nuovo modello di sicurezza informatica che i sostenitori della rivendicazione possono proteggere i dati personali molto meglio dei metodi tradizionali.

La matematica su cui si basa è stata sviluppata 10 anni fa e il metodo è stato adottato da Apple e Google negli ultimi anni.


innerself iscriviti alla grafica


Qual è la privacy differenziale?

La privacy differenziale consente alle aziende tecnologiche di raccogliere e condividere informazioni aggregate sulle abitudini degli utenti, mantenendo la privacy dei singoli utenti.

Ad esempio, supponi di voler mostrare i percorsi più popolari che le persone intraprendono camminando attraverso un parco. Tieni traccia dei percorsi delle persone 100 che camminano regolarmente nel parco e se camminano sul sentiero o attraverso l'erba.

Ma invece di condividere le persone specifiche che seguono ciascuna rotta, condividi i dati aggregati raccolti nel tempo. Le persone che visualizzano i tuoi risultati potrebbero sapere che 60 delle persone 100 preferisce fare scorciatoie attraverso l'erba, ma non quali persone 60.

Perché ne abbiamo bisogno?

Molti governi mondiali hanno politiche severe su come le aziende tecnologiche raccolgono e condividono i dati degli utenti. Le aziende che non seguono le regole possono far fronte a multe enormi. UN La corte belga ha recentemente ordinato Facebook interrompere la raccolta di dati sulle abitudini di navigazione degli utenti su siti Web esterni o affrontare multe di € 250,000 al giorno.

Per molte aziende, in particolare multinazionali che operano in diverse giurisdizioni, ciò le lascia in una posizione delicata quando si tratta della raccolta e dell'utilizzo dei dati dei clienti.

Da un lato, queste aziende hanno bisogno dei dati degli utenti in modo che possano fornire servizi di alta qualità a vantaggio degli utenti, come raccomandazioni personalizzate. D'altra parte, possono incorrere in addebiti se raccolgono troppi dati utente o se provano a spostare dati da una giurisdizione a un'altra.

Gli strumenti tradizionali di conservazione della privacy come la crittografia non possono risolvere questo dilemma poiché impedisce alle aziende tecnologiche di accedere ai dati. E l'anonimato riduce il valore dei dati - un algoritmo non può servire raccomandazioni personalizzate se non sa quali sono le tue abitudini.

Come funziona?

Continuiamo l'esempio di percorsi a piedi attraverso un parco. Se conosci le identità di coloro che sono inclusi nello studio, ma non sai chi ha intrapreso il percorso, potresti presumere che la privacy sia protetta. Ma potrebbe non essere il caso.

Supponiamo che qualcuno che visualizza i tuoi dati voglia accertare se Bob preferisce camminare sull'erba o sul sentiero. Hanno ottenuto informazioni di base sulle altre persone 99 nello studio, che dicono loro che le persone 40 preferiscono camminare sul sentiero e 59 preferisce camminare tra l'erba. Pertanto, possono dedurre che Bob, che è la persona 100th nel database, è la persona 60th che preferisce camminare attraverso l'erba.

Questo tipo di attacco è chiamato attacco differenziato, ed è piuttosto difficile da difendersi poiché non puoi controllare quanta conoscenza di fondo qualcuno possa ottenere. La privacy differenziale mira a difendersi da questo tipo di attacco.

Qualcuno che deduce il tuo percorso a piedi potrebbe non sembrare troppo serio, ma se sostituisci i percorsi a piedi con i risultati dei test HIV, allora puoi vedere che c'è una potenziale invasione della privacy.

Il modello di privacy differenziale garantisce che anche se qualcuno ha informazioni complete su 99 di persone 100 in un set di dati, non è ancora possibile dedurre le informazioni sulla persona finale.

Il meccanismo principale per ottenere ciò è aggiungere rumore casuale ai dati aggregati. Nell'esempio del percorso, puoi dire che il numero di persone che preferisce attraversare l'erba è 59 o 61, piuttosto che il numero esatto di 60. Il numero impreciso può preservare la privacy di Bob, ma avrà un impatto molto limitato sul modello: intorno a 60% le persone preferiscono prendere una scorciatoia.

Il rumore è attentamente progettato. Quando Apple utilizzava la privacy differenziale in iOS 10, aggiungeva rumore ai singoli input dell'utente. Ciò significa che può tracciare, per esempio, gli emoji più frequentemente usati, ma l'utilizzo emoji di ogni singolo utente è mascherato.

Cynthia Dwork, il inventore della privacy differenziale, ha proposto prove matematiche meravigliose su quanto rumore sia sufficiente per raggiungere il requisito della privacy differenziale.

Quali sono le sue applicazioni pratiche?

La privacy differenziale può essere applicata a tutto, dai sistemi di raccomandazione ai servizi basati sulla posizione e ai social network. Mela utilizza la privacy differenziale per raccogliere informazioni anonime sull'utilizzo da dispositivi come iPhone, iPad e Mac. Il metodo è facile da usare e legalmente in chiaro.

La privacy differenziale consentirebbe anche a una società come Amazon di accedere alle preferenze di acquisto personalizzate nascondendo informazioni sensibili sulla lista di acquisti storici. Facebook potrebbe usarlo per raccogliere dati comportamentali per pubblicità mirata, senza violare le politiche sulla privacy di un paese.

Come potrebbe essere usato in futuro?

Diversi paesi hanno politiche sulla privacy diverse e i documenti sensibili devono essere controllati manualmente prima di spostarsi da un paese all'altro. Questo è dispendioso in termini di tempo e costoso.

Di recente, una squadra da Deakin University sviluppato una tecnologia di privacy differenziale per automatizzare i processi di riservatezza all'interno delle comunità di condivisione del cloud tra i vari paesi.

The ConversationPropongono di utilizzare formule matematiche per modellare le leggi sulla privacy di ciascun paese che potrebbero essere tradotte in "middleware" (software) per garantire la conformità dei dati. L'utilizzo della privacy differenziale in questo modo potrebbe proteggere la privacy degli utenti e risolvere un problema di condivisione dei dati per le aziende tecnologiche.

Circa l'autore

Tianqing Zhu, Docente di Cyber ​​Security, Facoltà di Scienze, Ingegneria e Ambiente Costruito, Deakin University

Questo articolo è stato pubblicato in origine The Conversation. Leggi il articolo originale.

libri correlati

at InnerSelf Market e Amazon