Quando le cose vanno male in un mondo automatizzato, sapremmo ancora cosa fare?

Quando le cose vanno male in un mondo automatizzato, sapremmo ancora cosa fare?

Viviamo in un mondo che è allo stesso tempo sempre più complesso e automatizzato. Quindi, proprio come abbiamo a che fare con problemi più complessi, l'automazione sta portando a un'atrofia delle competenze umane che potrebbe lasciarci più vulnerabili quando rispondiamo a situazioni impreviste o quando le cose vanno male. The Conversation

Si consideri il minuti finali del volo Air France 447, che si è schiantato nell'Atlantico a maggio 2009 dopo aver lasciato Rio de Janeiro, Brasile, per Parigi, Francia.

Il suo registratore di volo ha rivelato totale confusione nella cabina di pilotaggio. L'aereo è stato inclinato verso l'alto a 15º con una voce automatica che ha ripetutamente chiamato "stallo, stallo". Eppure i piloti stavano annaspando, uno esclamando: "[...] non capiamo nulla".

Questo non è il posto dove andare nei meandri di quel volo sfortunato, se non per notare che qualsiasi sistema progettato per affrontare automaticamente contingenze la maggior parte delle volte lascia una base di competenze degradate per la minoranza di situazioni che i progettisti non potevano Prevedo.

Parlando a Vanity FairNadine Sarter, ingegnere industriale presso l'Università del Michigan, ricorda una conversazione con cinque ingegneri coinvolti nella costruzione di un particolare aeromobile.

Ho iniziato a chiedere, 'Bene, come funziona questo o quel lavoro?' E non potevano essere d'accordo sulle risposte. Quindi stavo pensando, se questi cinque ingegneri non sono d'accordo, il povero pilota, se mai incontra quella particolare situazione ... beh, buona fortuna.

In effetti, la complessità di pilotare aerei di alta tecnologia altamente sofisticati è stata affidata a un robot, con ingegneri di volo a tutti gli effetti andati dai cockpit. Solo piloti più anziani ed ex piloti dell'aeronautica conservano quelle abilità dettagliate.


Ricevi le ultime novità da InnerSelf


Di nuovo sulla terra ferma, in un mondo di guida autonomo ci potrebbero essere intere generazioni future senza alcuna esperienza pratica guida e navigazione un veicolo.

Stiamo già vedendo un'indicazione di cosa può andare storto quando gli umani lasciano il controllo a sistemi autonomi.

Un'indagine sul incidente mortale di un Tesla Model S con autopilota ha osservato che la società ha fornito informazioni sui "limiti di sistema" ai conducenti. In tal caso, è ancora compito degli automobilisti prestare attenzione.

Ma che possibilità avrebbe una persona di assumere qualsiasi controllo nel caso in cui le cose iniziassero a non funzionare nel loro futuro veicolo completamente autonomo. Saprebbero persino come individuare i primi segnali di un imminente disastro?

Perdere a modo nostro?

Guidare questo è un determinismo tecnologico che crede che qualsiasi innovazione sia intrinsecamente buona. Mentre le tecnologie emergenti possono ancora definire cosa vuol dire essere umani, la sfida è riconoscere il rischio e cosa fare per assicurarsi che le cose non vadano male.

Questo è sempre più difficile dato che stiamo aggiungendo alla complessità, specialmente con la guida autonoma di treni suburbani, taxi d'aria e consegna droni.

I progettisti di sistemi hanno creato sistemi più grandi e più interconnessi per condividere il carico di elaborazione del computer, anche se questo rende le loro creazioni prime candidate per guasti. Stanno trascurando il fatto che una volta che tutto è collegato, i problemi possono diffondersi prontamente come soluzioni, a volte anche di più.

La crescente e immensa complessità di un mondo automatizzato pone rischi simili.

Punti di pericolo

Con il senno di poi, ciò che è necessario è una capacità di tagliare le reti libere quando ci sono punti di fallimento, o almeno di isolare parti di una singola rete quando ci sono punti di guasto altrove all'interno di essa.

Questo "isolare" è una caratteristica delle reti elettriche intelligenti che offre la possibilità di suddividere la rete in frammenti che sono in grado di sostenere autonomamente la propria domanda di energia interna. La modellazione ha dimostrato che meno connessioni possono portare a maggiore sicurezza.

Può la scienza della complessità emergente aiutare a individuare dove i punti di pericolo potrebbero trovarsi in reti altamente interconnesse? Marten Scheffer e colleghi pensavo così. Aveva visto similitudini tra il comportamento dei (suoi) sistemi naturali e sistemi economici e finanziari.

Il suo lavoro precedente su laghi, barriere coralline, mari, foreste e praterie, ha scoperto che gli ambienti soggetti a cambiamenti graduali come il clima, il carico di nutrienti e la perdita di habitat possono raggiungere punti di non ritorno che li trasformano in uno stato inferiore a volte irreversibile.

Potrebbero banchieri ed economisti alle prese con la stabilità dei mercati finanziari imparare dai ricercatori in ecologia, epidemiologia e climatologia per sviluppare indicatori della vicinanza a soglie critiche e rottura del sistema?

A febbraio 2016 tutto questo si è riunito sotto forma di un documento sulla teoria della complessità e la regolamentazione finanziaria co-autore di una vasta gamma di esperti tra cui un economista, banchiere, fisico, climatologo, ecologista, zoologo, veterinario ed epidemiologo.

Hanno raccomandato un'integrazione online di dati, metodi e indicatori, alimentando gli stress test per i sistemi socioeconomici e finanziari globali in tempo quasi reale. Il primo è simile a ciò che è stato ottenuto nel trattare con altri sistemi complessi come il tempo.

Possiamo iniziare a vedere come il nostro esempio di un mondo di guida autonomo si piega in questioni di stabilità della rete. Immagina una rete altamente interconnessa di veicoli autonomi.

È evidente la necessità di sapere come rilevare e isolare qualsiasi potenziale punto di guasto in una tale rete, prima che le cose vadano storte con conseguenze potenzialmente tragiche. Questo è più di una semplice protezione di guidatore e passeggero da qualsiasi guasto del sistema in un singolo veicolo autonomo.

È tempo di pensare a come potremmo usare questi progressi multidisciplinari per capire la stabilità di tali reti su larga scala per evitare conseguenze drastiche.

Circa l'autore

Peter Fisher, Professore a contratto, Studi globali, urbani e sociali, Università RMIT

Questo articolo è stato pubblicato in origine The Conversation. Leggi il articolo originale.

libri correlati

{amazonWS: searchindex = Libri; parole chiave = automazione andata male, maxresults = 3}

enafarZH-CNzh-TWnltlfifrdehiiditjakomsnofaptruessvtrvi

segui InnerSelf su

facebook-icontwitter-iconrss-icon

Ricevi l'ultimo tramite e-mail

{Emailcloak = off}