Come fa un computer a sapere dove stai guardando?

Immagina di guidare un'auto, utilizzando una proiezione del display a testa alta sul parabrezza per navigare attraverso una città sconosciuta. Questa è la realtà aumentata (AR); le informazioni vengono utilizzate non solo per guidarti lungo un percorso, ma anche per avvisarti di informazioni salienti nei dintorni, come ciclisti o pedoni. Il corretto posizionamento dei contenuti virtuali non è solo cruciale, ma forse una questione di vita o di morte.

Le informazioni non possono oscurare altro materiale e dovrebbero essere visualizzate abbastanza a lungo da consentirne la comprensione, ma non troppo a lungo. I sistemi informatici devono effettuare queste determinazioni in tempo reale, senza che nessuna delle informazioni possa essere distratta o invadente. Certamente non vogliamo un avvertimento su un ciclista che sta per attraversare di fronte alla macchina per oscurare la ciclista stessa!

Come ricercatore in AR, passo un sacco di tempo a cercare di capire come ottenere le informazioni giuste sullo schermo di un utente, nel posto giusto, al momento giusto. Ho imparato che mostrare troppe informazioni può confondere l'utente, ma non mostrare abbastanza può rendere inutile un'applicazione. Dobbiamo trovare il punto debole in mezzo.

Un elemento cruciale di questo, si scopre, è sapere dove stanno gli utenti. Solo così possiamo fornire le informazioni che desiderano in un luogo in cui possono elaborarle. La nostra ricerca riguarda la misurazione di dove l'utente sta guardando nella scena reale, come modo per aiutare a decidere dove posizionare il contenuto virtuale. Con AR pronto a infiltrarsi in molte aree della nostra vita - da guida a lavoro a ricreazione - Avremo bisogno di risolvere questo problema prima di poter contare su AR per fornire supporto per azioni gravi o critiche.

Determinare dove mettere le informazioni

Ha senso che le informazioni appaiano dove l'utente sta guardando. Durante la navigazione, un utente può guardare un edificio, una strada o un altro oggetto reale per rivelare le informazioni virtuali associate; il sistema saprebbe nascondere tutti gli altri schermi per evitare di ingombrare la scena visibile.


innerself iscriviti alla grafica


Ma come facciamo a sapere che cosa sta guardando qualcuno? Si scopre che le sfumature della visione umana ci permettono di esaminare gli occhi di una persona e calcola dove stanno guardando. Associando questi dati con le telecamere che mostrano il campo visivo di una persona, possiamo determinare ciò che la persona sta vedendo e ciò che sta guardando.

I sistemi di eye-tracking sono emersi per la prima volta negli 1900. Originariamente erano principalmente usati per studiare schemi di lettura; alcuni potrebbero essere molto invadenti per il lettore. Più recentemente, è emerso un eye-tracking in tempo reale che è diventato più economico, più facile da utilizzare e più piccolo.

Gli eye tracker possono essere attaccati al schermo o integrato in occhiali da indossare o schermi montati sulla testa. Gli occhi sono tracciati usando una combinazione di telecamere, proiezioni e algoritmi di visione artificiale calcolare la posizione dell'occhio e il punto di osservazione su un monitor.

Di solito osserviamo due misure quando esaminiamo i dati di tracciamento oculare. Il primo è chiamato a fissazione, ed è usato per descrivere quando fermiamo il nostro sguardo, spesso in un luogo interessante in una scena perché ha attirato la nostra attenzione. Il secondo è a saccade, uno dei movimenti oculari rapidi usati per posizionare lo sguardo. Brevi periodi di fissazione sono seguiti da movimenti rapidi, chiamati saccadi. Fondamentalmente, i nostri occhi sfrecciano rapidamente da un luogo all'altro, prendendo in pezzi di informazioni su parti di una scena. I nostri cervelli quindi mettono insieme le informazioni di queste fissazioni per formare un'immagine visiva nelle nostre menti.

{youtube}tdFIvRMvFQI{/youtube}

Combinando il tracciamento dell'occhio con AR

Spesso il contenuto AR è ancorato ad un oggetto o luogo reale. Ad esempio, un'etichetta virtuale contenente il nome di una strada dovrebbe essere visualizzata su quella strada. Idealmente, vorremmo che le etichette AR appaiano vicino all'oggetto reale a cui è associato. Ma dobbiamo anche fare attenzione a non lasciare che più etichette AR si sovrappongano e diventino illeggibili. Esistono molti approcci per gestire il posizionamento delle etichette. Stiamo esplorando un'opzione: calcolare dove la persona guarda nella scena reale e visualizzare le etichette AR solo in quel punto.

Supponiamo, ad esempio, che un utente stia interagendo con un'applicazione mobile che lo aiuta a comprare cereali a basso contenuto calorico nel supermercato. Nell'applicazione AR, ogni cereale ha informazioni caloriche ad esso associate. Invece di raccogliere fisicamente ogni scatola di cereali e leggere il contenuto nutrizionale, l'utente può sollevare il suo dispositivo mobile e puntarlo verso una particolare scatola di cereali per rivelare le informazioni pertinenti.

Ma pensa a quanto sia affollato il corridoio dei cereali di un negozio con vari pacchetti. Senza un modo per gestire la visualizzazione delle etichette AR, verrebbero visualizzate le etichette delle informazioni sulle calorie per tutte le scatole di cereali. Sarebbe impossibile identificare il contenuto calorico per il cereale a cui è interessato.

Tracciando i suoi occhi, possiamo determinare quale singola casella di cereali l'utente sta guardando. Quindi mostriamo le informazioni caloriche per quel particolare cereale. Quando sposta il suo sguardo su un'altra scatola, mostriamo le cifre per la prossima che considera. Il suo schermo è sgombro, le informazioni che vuole sono prontamente disponibili e quando ha bisogno di ulteriori informazioni, possiamo mostrarle.

Questo tipo di sviluppo rende un momento entusiasmante per la ricerca AR. La nostra capacità di integrare scene del mondo reale con la grafica computerizzata su display mobili sta migliorando. Ciò alimenta la prospettiva di creare nuove straordinarie applicazioni che ampliano la nostra capacità di interagire, di imparare e di essere intrattenuti dal mondo che ci circonda.

Circa l'autore

Ann McNamara, professore associato di visualizzazione, Texas A & M University

Questo articolo è stato pubblicato in origine The Conversation. Leggi il articolo originale.

libri correlati

at

rompere

Grazie della visita InnerSelf.com, dove ci sono 20,000+ articoli che cambiano la vita e promuovono "Nuovi atteggiamenti e nuove possibilità". Tutti gli articoli sono tradotti in 30+ lingue. Sottoscrivi a InnerSelf Magazine, pubblicato settimanalmente, e Daily Inspiration di Marie T Russell. Rivista InnerSelf è stato pubblicato dal 1985.