Puoi dire se il tuo animale domestico è felice?

Gli scienziati stanno iniziando a essere in grado di leggere con precisione le espressioni facciali animali e capire cosa comunicano.

Le espressioni facciali proiettano le nostre emozioni interne al mondo esterno. Leggere i volti di altre persone viene automaticamente e automaticamente alla maggior parte di noi. Senza la tua migliore amica che dice una parola, sai - vedendo le piccole rughe intorno agli occhi, le sue guance arrotondate e sollevate e gli angoli delle labbra rivolti verso l'alto - che ha ottenuto quella promozione che voleva.

E se potessimo leggere con la stessa facilità le facce di altri esseri viventi? Arriverà un giorno in cui possiamo tenere uno smart phone al nostro gatto e sapere come si sente?

I ricercatori stanno sviluppando sistemi di codifica che consentono loro di leggere oggettivamente le espressioni facciali animali piuttosto che dedurre o indovinare il loro significato.

Un sistema di codifica descrive precisamente come cambiano le diverse caratteristiche del viso quando un animale sente un'emozione particolare, come strizzare gli occhi o stringere le labbra. Osservando le fotografie e valutando quanto ognuna di queste caratteristiche o "unità d'azione" cambia, possiamo determinare quanto fortemente si prova un'emozione.

Riconoscimento del dolore prima frontiera

Finora, solo i sistemi di codificazione del dolore (scale di smorfia) per gli animali non primati sono stati scientificamente sviluppati. Nonostante la loro diversa anatomia; topi, ratti, conigli, cavalli ed pecora (Compresi agnelli) tutti tirano un analogo dolore. Stringono gli occhi, si gonfiano o appiattiscono le loro guance, cambiano la posizione delle loro orecchie e tendono le loro bocche.


innerself iscriviti alla grafica


La spinta a sviluppare le scale di smorfia deriva in gran parte dal nostro desiderio e dovere etico di valutare e migliorare il benessere di animali utilizzati in laboratorio o per prodotti alimentari.

Idealmente, vogliamo un modo per sapere in modo accurato e affidabile come si sente un animale semplicemente guardandoli, piuttosto che prelevando il sangue per i test o monitorando le pulsazioni. Conoscendo i loro stati emotivi, possiamo cambiare aiuto per ridurre il dolore, la noia o la paura e, idealmente, favorire la curiosità o la gioia.

Gli animali, in particolare quelli sociali, potrebbero aver evoluto espressioni facciali per la stessa ragione per cui lo abbiamo fatto - comunicare tra loro o, nel caso dei cani, con noi.

In particolare per gli animali in preda, segnali sottili che gli altri membri del loro gruppo (ma non i predatori) possono cogliere sono utili per la sicurezza, per esempio. Un'indicazione del comportamento del dolore può scatenare l'aiuto o il conforto da parte di altri membri del gruppo, o servire da avvertimento per stare lontano dalla fonte del dolore.

Se riusciamo a decifrare le smorfie dovremmo, in teoria, essere in grado di comprendere le espressioni facciali per altre emozioni come la gioia o la tristezza. Vorremmo anche probabilmente comprendere le espressioni facciali per gli animali più vicini ai nostri cuori: i nostri animali domestici.

App per smartphone per emozioni animali

Un giorno, i proprietari di animali domestici, i braccianti oi veterinari potrebbero reggere uno smart phone a un cane, una pecora o un gatto e fare in modo che un'app comunichi loro l'emozione specifica che l'animale sta mostrando.

Tuttavia, arrivare a un sistema di identificazione delle emozioni automatizzato richiede molti passaggi. Il primo è definire le emozioni in un modo verificabile, non specifico per la specie.

Il secondo è quello di raccogliere dati di base descrittivi sull'espressione emotiva in un ambiente controllato e sperimentale. Un modo per farlo potrebbe essere quello di mettere gli animali in situazioni che suscitino un'emozione particolare e vedere come cambiano la loro fisiologia, i modelli del cervello, il comportamento e le facce. Eventuali modifiche dovrebbero verificarsi in modo affidabile abbastanza da poterle definire espressioni facciali.

Abbiamo già alcuni suggerimenti per andare avanti: Cavalli depresso chiudi gli occhi, anche quando non stanno riposando. Vacche spaventose posare le orecchie sulle loro teste e spalancare gli occhi. Ratti gioiosi avere orecchie rosa che puntano più in avanti e verso l'esterno.

Una volta raccolti questi dati, avremmo quindi bisogno di trasformare tali informazioni scientifiche in un sistema tecnologico automatizzato. Il sistema dovrebbe essere in grado di estrarre le unità chiave di azione del viso da un'immagine e calcolare in che modo tali caratteristiche differiscono da un'espressione di base neutrale.

Il sistema dovrebbe anche essere in grado di affrontare le differenze individuali nelle caratteristiche del viso e le sottili differenze nel modo in cui gli individui esprimono emozioni. Anche il processo di estrazione e calcolo delle feature diventa difficile o non riesce quando un viso è scarsamente illuminato, inclinato o parzialmente coperto.

Mentre stiamo facendo progresso nell'identificazione di espressioni facciali umane automatizzate, siamo ancora molto lontani quando si tratta di animali. Un obiettivo più realistico a breve termine sarebbe quello di capire meglio quali emozioni esprimono gli animali non umani e come. Le risposte potrebbero guardarci in faccia.

Circa l'autore

Mirjam Guesgen, borsista post-dottorato in benessere degli animali, Università di Alberta

Questo articolo è stato pubblicato in origine The Conversation. Leggi il articolo originale.

Libri correlati:

at InnerSelf Market e Amazon