Perché la tecnologia mette a rischio i diritti umani

Perché la tecnologia mette a rischio i diritti umani
Spainter_vfx / Shutterstock.com

Film come 2001: Odissea nello spazio, Blade Runner e Terminator ha portato robot rogue e sistemi informatici ai nostri schermi cinematografici. Ma in questi giorni, questi classici occhiali di fantascienza non sembrano così lontani dalla realtà.

Sempre più, viviamo, lavoriamo e giochiamo con tecnologie computazionali autonome e intelligenti. Questi sistemi includono software e hardware con la capacità di ragionare e prendere decisioni indipendenti. Lavorano per noi sul pavimento della fabbrica; decidono se possiamo ottenere un mutuo; tracciano e misurano i nostri livelli di attività e fitness; puliscono i nostri pavimenti del salotto e tagliano i nostri prati.

I sistemi autonomi e intelligenti hanno il potenziale di influenzare quasi ogni aspetto della nostra vita sociale, economica, politica e privata, compresi gli aspetti quotidiani quotidiani. Molto di ciò sembra innocente, ma c'è motivo di preoccupazione. Le tecnologie computazionali hanno un impatto su ogni diritto umano, dal diritto alla vita al diritto alla privacy, alla libertà di espressione ai diritti sociali ed economici. Quindi, come possiamo difendere i diritti umani in un panorama tecnologico sempre più modellato dalla robotica e dall'intelligenza artificiale (AI)?

AI e diritti umani

Innanzitutto, vi è il vero timore che l'aumento dell'autonomia della macchina comprometta lo stato degli esseri umani. Questo timore è aggravato da una mancanza di chiarezza su chi sarà tenuto a rendere conto, sia in senso legale che morale, quando le macchine intelligenti danneggiano. Ma non sono sicuro che l'attenzione della nostra preoccupazione per i diritti umani debba davvero risiedere robot rogue, come sembra al momento. Piuttosto, dovremmo preoccuparci dell'uso umano dei robot e dell'intelligenza artificiale e del loro dispiegamento in contesti politici, militari, economici e sociali ingiusti e ineguali.

Questa preoccupazione è particolarmente pertinente rispetto ai sistemi letali di armi autonome (LEGGE), spesso descritti come robot killer. Come noi andare verso una corsa agli armamenti di intelligenza artificiale, studiosi di diritti umani e attivisti come Christof Heyns, l'ex relatore speciale delle Nazioni Unite sulle esecuzioni extragiudiziali, sommarie o arbitrarie, temono che l'uso delle LEGGI metterà a disposizione sistemi robotici autonomi responsabile delle decisioni di vita e di morte, con controllo umano limitato o assente.

L'intelligenza artificiale rivoluziona anche il legame tra la guerra e le pratiche di sorveglianza. Gruppi come il Comitato internazionale per il controllo degli armamenti di robot (ICRAC) ha recentemente espresso la sua opposizione alla partecipazione di Google in Progetto Maven, un programma militare che utilizza l'apprendimento automatico per analizzare i filmati di sorveglianza dei droni, che possono essere utilizzati per uccisioni extragiudiziali. ICRAC appello a Google per garantire che i dati raccolti dai suoi utenti non vengano mai utilizzati a scopi militari, unendo le proteste dei dipendenti Google al coinvolgimento della società nel progetto. Google lo ha recentemente annunciato non si rinnoverà il suo contratto.

In 2013, l'estensione delle pratiche di sorveglianza è stata evidenziata da Edward Snowden rivelazioni. Questi ci hanno insegnato molto sulla minaccia al diritto alla privacy e alla condivisione di dati tra servizi di intelligence, agenzie governative e società private. La recente controversia che circonda Cambridge AnalyticaLa raccolta di dati personali tramite l'uso di piattaforme di social media come Facebook continua a causare serie apprensioni, questa volta a manipolazioni e interferenze in elezioni democratiche che danneggiano il diritto alla libertà di espressione.


Ricevi le ultime novità da InnerSelf


Nel frattempo, gli analisti dei dati critici si sfidano pratiche discriminatorie associato a quello che chiamano il "problema dei bianchi" di AI. Questo è il timore che i sistemi di IA addestrati sui dati esistenti replichino stereotipi razziali e di genere esistenti che perpetuano pratiche discriminatorie in settori quali la polizia, le decisioni giudiziarie o l'impiego.

L'intelligenza artificiale può replicare e consolidare gli stereotipi.
L'intelligenza artificiale può replicare e consolidare gli stereotipi.
Ollyy / Shutterstock.com

Bot ambigui

La potenziale minaccia delle tecnologie computazionali ai diritti umani e alla sicurezza fisica, politica e digitale è stata evidenziata in uno studio pubblicato di recente su L'uso dannoso dell'intelligenza artificiale. Le preoccupazioni espresse in questa relazione dell'Università di Cambridge devono essere prese sul serio. Ma come dovremmo affrontare queste minacce? I diritti umani sono pronti per l'era della robotica e dell'IA?

Ci sono sforzi in corso per aggiornare i principi dei diritti umani esistenti per questa era. Questi includono il Principi di inquadratura e guida delle Nazioni Unite per le imprese e i diritti umani, tenta di scrivere a Magna Carta per l'era digitale e il Future of Life Institute's Asilomar AI Principles, che identificano le linee guida per la ricerca etica, l'adesione ai valori e l'impegno per lo sviluppo benefico a lungo termine dell'IA.

Questi sforzi sono encomiabili ma non sufficienti. I governi e le agenzie governative, i partiti politici e le società private, in particolare le principali società tecnologiche, devono impegnarsi per gli usi etici dell'IA. Abbiamo anche bisogno di un controllo legislativo efficace e applicabile.

Quali che siano le nuove misure che introduciamo, è importante riconoscere che le nostre vite sono sempre più invischiate con macchine e sistemi intelligenti autonomi. Questo intreccio migliora il benessere umano in aree come la ricerca e il trattamento medico, nel nostro sistema di trasporto, nelle strutture di assistenza sociale e negli sforzi per proteggere l'ambiente.

Ma in altre aree questo intreccio genera prospettive preoccupanti. Le tecnologie computazionali sono utilizzate per monitorare e monitorare le nostre azioni e comportamenti, tracciare i nostri passi, la nostra posizione, la nostra salute, i nostri gusti e le nostre amicizie. Questi sistemi modellano il comportamento umano e ci spingono verso pratiche di auto-sorveglianza che limitano la nostra libertà e minano le idee e gli ideali dei diritti umani.

The ConversationE qui sta il punto cruciale: la capacità di duplice uso delle tecnologie computazionali sfuma la linea tra pratiche benefiche e malevole. Inoltre, le tecnologie computazionali sono profondamente implicate nelle relazioni di potere ineguali tra singoli cittadini, lo stato e le sue agenzie e le società private. Se liberati da efficaci sistemi nazionali e internazionali di controlli e contrappesi, rappresentano una minaccia reale e preoccupante per i nostri diritti umani.

Circa l'autore

Birgit Schippers, Visiting Research Fellow, Senatore George J Mitchell Institute for Global Peace, Security and Justice, Queen's University Belfast

Questo articolo è stato pubblicato in origine The Conversation. Leggi il articolo originale.

libri correlati

{amazonWS: searchindex = Books; Birgit Schippers = innerself; maxresults = 3}

enafarZH-CNzh-TWnltlfifrdehiiditjakomsnofaptruessvtrvi

segui InnerSelf su

facebook-icontwitter-iconrss-icon

Ricevi l'ultimo tramite e-mail

{Emailcloak = off}