Las expresiones faciales por sí solas pueden no transmitir un estado emocional

Una nueva investigación aclara que la inteligencia emocional implica mucho más que leer las microexpresiones de las personas. Cuando se trata de leer el estado mental de una persona, el contexto visual del trasfondo y la acción es tan importante como las expresiones faciales y el lenguaje corporal.

Investigadores de la Universidad de California en Berkeley dan el ejemplo del actor James Franco en la película nominada al Oscar "127 horas". En una escena, Franco parece vagamente feliz mientras graba un video diario en la película. Pero cuando la cámara se aleja, el público ve que su brazo está aplastado bajo una roca y que su sonrisa oculta su agonía.

El nuevo punto de vista desafía décadas de investigación que postulan que la inteligencia emocional y el reconocimiento se basan en gran medida en la capacidad de leer microexpresiones faciales. Se creía que las expresiones eran un indicador de felicidad, tristeza, ira, miedo, sorpresa, disgusto, desprecio y otros estados de ánimo y sentimientos positivos y negativos.

El nuevo estudio, que aparecerá en línea esta semana en la revista procedimientos de la Academia Nacional de Ciencias, sugiere que la detección emocional requiere más que una "lectura" facial.

“Nuestro estudio revela que el reconocimiento de emociones es, en esencia, una cuestión de contexto tanto como de rostros”, dijo el autor principal Zhimin Chen, estudiante de doctorado en psicología en UC Berkeley.

En el estudio, los investigadores difuminaron los rostros y los cuerpos de los actores en docenas de clips silenciados de películas de Hollywood y videos caseros. A pesar de la virtual invisibilidad de los personajes, cientos de participantes del estudio pudieron leer con precisión sus emociones al examinar el fondo y cómo interactuaban con su entorno.

El modelo de "seguimiento afectivo" que Chen creó para el estudio permite a los investigadores rastrear cómo las personas califican las emociones de los personajes de momento a momento mientras ven videos.

El método de Chen es capaz de recopilar grandes cantidades de datos en poco tiempo y, eventualmente, podría usarse para medir cómo las personas con trastornos como el autismo y la esquizofrenia leen las emociones en tiempo real y ayudar con sus diagnósticos.

“Algunas personas pueden tener deficiencias en el reconocimiento de expresiones faciales, pero pueden reconocer la emoción del contexto”, dijo Chen. "Para otros, es lo contrario".

Además, los hallazgos, basados ​​en análisis estadísticos de las calificaciones recopiladas, podrían informar el desarrollo de la tecnología de reconocimiento facial.

"En este momento, las empresas están desarrollando algoritmos de aprendizaje automático para reconocer emociones, pero solo entrenan sus modelos en rostros recortados y esos modelos solo pueden leer las emociones de los rostros", dijo Chen. "Nuestra investigación muestra que los rostros no revelan las emociones verdaderas con mucha precisión y que identificar el estado de ánimo de una persona también debe tener en cuenta el contexto".

Para el estudio, Chen y el autor principal del estudio, el Dr. David Whitney, científico de la visión y profesor de psicología de UC Berkeley, probaron las capacidades de reconocimiento de emociones de casi 400 adultos jóvenes. Los estímulos visuales que utilizaron fueron videoclips de varias películas de Hollywood, así como documentales y videos caseros que mostraban respuestas emocionales en entornos más naturales.

Los participantes del estudio se conectaron en línea para ver y calificar los videoclips. Se superpuso una cuadrícula de calificación sobre el video para que los investigadores pudieran rastrear el cursor de cada participante del estudio mientras se movía por la pantalla, procesando información visual y calificando las emociones de momento a momento.

En el primero de tres experimentos, 33 participantes del estudio vieron interacciones en clips de película entre dos personajes, uno de los cuales estaba borroso, y calificaron las emociones percibidas del personaje borroso. Los resultados mostraron que los participantes del estudio infirieron cómo se sentía el personaje invisible basándose no solo en sus interacciones interpersonales, sino también en lo que estaba sucediendo en el fondo.

A continuación, aproximadamente 200 participantes del estudio vieron videoclips que mostraban interacciones en tres condiciones diferentes: una en la que todo era visible, otra en la que los personajes estaban borrosos y otra en la que el contexto estaba borroso. Los resultados mostraron que el contexto era tan importante como el reconocimiento facial para decodificar las emociones.

En el experimento final, 75 participantes del estudio vieron clips de documentales y videos caseros para que los investigadores pudieran comparar el reconocimiento de emociones en entornos más naturalistas. Nuevamente, el contexto fue tan crítico para inferir las emociones de los personajes como lo fueron sus expresiones faciales y gestos.

"En general, los resultados sugieren que el contexto no solo es suficiente para percibir la emoción, sino que también es necesario para percibir la emoción de una persona", dijo Whitney, profesora de psicología de UC Berkeley. "Acéptalo, el rostro no es suficiente para percibir la emoción".

Fuente: Universidad de California Berkeley

!-- GDPR -->