La investigación utiliza inteligencia artificial para medir las emociones humanas

Una nueva investigación presentada virtualmente en la reunión anual de la Cognitive Neuroscience Society (CNS) muestra cómo se están utilizando métodos computacionales basados ​​en datos para explicar el rasgo humano más básico: las emociones. Los investigadores creen que sus hallazgos anularán las viejas ideas sobre la estructura de las emociones en la humanidad.

Los científicos están aplicando el poder de la computación para comprender todo, desde cómo generamos emociones espontáneas durante la deambulación mental hasta cómo decodificamos las expresiones faciales en todas las culturas.

Los investigadores creen que los hallazgos son importantes para caracterizar cómo las emociones contribuyen al bienestar, la neurobiología de los trastornos psiquiátricos e incluso cómo hacer robots sociales más efectivos.

“La inteligencia artificial (IA) permite a los científicos estudiar las emociones de formas que antes se pensaba que eran imposibles, lo que está llevando a descubrimientos que transforman la forma en que pensamos que las emociones se generan a partir de señales biológicas”, dijo el Dr. Kevin LaBar de la Universidad de Duke.

Seis emociones humanas fundamentales (miedo, ira, disgusto, tristeza, felicidad y sorpresa) se han considerado universales en la psicología humana durante décadas. Sin embargo, a pesar de la prevalencia social de esta idea, los expertos sostienen que el consenso científico muestra que estas emociones están lejos de ser universales.

En particular, existe una brecha significativa en el reconocimiento facial de estas emociones en todas las culturas, en particular para las personas del este de Asia, dijo la Dra. Rachael Jack, investigadora de la Universidad de Glasgow.

Jack ha estado trabajando para comprender lo que ella llama el "lenguaje de la cara"; cómo los movimientos individuales de la cara se combinan de diferentes maneras para crear expresiones faciales significativas (como cómo las letras se combinan para crear palabras).

“Pienso en esto un poco como intentar descifrar jeroglíficos o un idioma antiguo desconocido”, dijo Jack. "Sabemos mucho sobre el lenguaje hablado y escrito, incluso cientos de idiomas antiguos, pero tenemos comparativamente poco conocimiento formal de los sistemas de comunicación no verbal que usamos todos los días y que son tan críticos para todas las sociedades humanas".

En un nuevo trabajo, Jack y su equipo han creado un método novedoso basado en datos para crear modelos dinámicos de estos movimientos faciales, como un libro de recetas de expresiones faciales de emociones. Su equipo ahora está transfiriendo estos modelos a agentes digitales, como robots sociales y humanos virtuales, para que puedan generar expresiones faciales socialmente matizadas y culturalmente sensibles.

A partir de su investigación, han creado un novedoso generador de movimientos faciales que puede seleccionar aleatoriamente un subconjunto de movimientos faciales individuales, como el levantador de cejas, el arrugador de nariz o el estirador de labios, y activar aleatoriamente la intensidad y el tiempo de cada uno.

Estos movimientos faciales activados aleatoriamente se combinan para crear una animación facial. Los participantes del estudio de diferentes culturas luego categorizan la animación facial de acuerdo con las seis emociones clásicas, o pueden seleccionar “otras” si no perciben ninguna de estas emociones.

Después de muchos de estos ensayos, los investigadores construyen una relación estadística entre los movimientos faciales presentados en cada ensayo y las respuestas de los participantes, lo que produce un modelo matemático.

“En contraste con los enfoques tradicionales basados ​​en la teoría, en los que los experimentadores tomaron un conjunto hipotético de expresiones faciales y se las mostraron a los participantes de todo el mundo, hemos agregado un enfoque psicofísico”, dijo Jack.

"Se basa más en los datos y es más agnóstico a la hora de muestrear y probar las expresiones faciales y, de manera crítica, utiliza las percepciones subjetivas de los participantes culturales para comprender qué movimientos faciales impulsan su percepción de una emoción determinada, por ejemplo, 'él es feliz'".

Estos estudios han condensado las seis expresiones faciales universales de emociones comúnmente pensadas en solo cuatro expresiones transculturales. "Hay diferencias culturales sustanciales en las expresiones faciales que pueden obstaculizar la comunicación intercultural", dijo Jack. "A menudo, pero no siempre, encontramos que las expresiones faciales del este de Asia tienen ojos más expresivos que las expresiones faciales occidentales, que tienden a tener bocas más expresivas, ¡al igual que los emoticonos orientales frente a los occidentales!"

Añade que también hay puntos en común culturales que pueden utilizarse para apoyar la comunicación intercultural precisa de mensajes específicos; por ejemplo, las expresiones faciales de felicidad, interés y aburrimiento son similares en las culturas orientales y occidentales y pueden reconocerse fácilmente en todas las culturas.

Jack y su equipo ahora están utilizando sus modelos para mejorar las capacidades de señalización social de los robots y otros agentes digitales que se pueden utilizar a nivel mundial. "Estamos muy emocionados de transferir nuestros modelos de expresión facial a una variedad de agentes digitales y ver la mejora dramática en el rendimiento", dice.

Comprender cómo la experiencia subjetiva de la emoción está mediada en el cerebro es el santo grial de la neurociencia afectiva, dijo LaBar de Duke."Es un problema difícil y hasta la fecha ha habido pocos avances". En su laboratorio, LaBar y sus colegas están trabajando para comprender las emociones que surgen mientras el cerebro divaga en reposo.

"Ya sean provocadas por pensamientos o recuerdos internos, estas emociones de 'flujo de conciencia' son el objetivo de la rumia y la preocupación que pueden conducir a estados de ánimo prolongados y pueden sesgar la memoria y la toma de decisiones", dijo.

Hasta hace poco, los investigadores no habían podido decodificar estas emociones a partir de señales de funcionamiento cerebral en estado de reposo. Ahora, el equipo de LaBar ha podido aplicar herramientas de aprendizaje automático para derivar marcadores de neuroimagen de un pequeño conjunto de emociones como miedo, ira y sorpresa. Además, los investigadores han modelado cómo estas emociones emergen espontáneamente en el cerebro mientras los sujetos descansan en un escáner de resonancia magnética.

El núcleo del trabajo ha sido entrenar un algoritmo de aprendizaje automático para diferenciar los patrones de actividad cerebral que separan las emociones entre sí. Los investigadores presentan un algoritmo clasificador de patrones con un conjunto de datos de entrenamiento de un grupo de participantes a los que se les presentaron clips de películas y música que indujeron emociones específicas.

Mediante la retroalimentación, el algoritmo aprende a sopesar las entradas que provienen de diferentes regiones del cerebro para optimizar la señalización de cada emoción. Luego, los investigadores prueban qué tan bien el clasificador puede predecir las emociones provocadas en una nueva muestra de participantes utilizando el conjunto de pesos cerebrales que generó a partir de la muestra de prueba.

"Una vez que los patrones cerebrales específicos de la emoción se validan en todos los sujetos de esta manera, buscamos evidencia de que estos patrones surgen espontáneamente en los participantes que simplemente están en reposo en el escáner", dijo Labar.

"Entonces podemos determinar si el clasificador de patrones predice con precisión las emociones que las personas informan espontáneamente en el escáner e identifica las diferencias individuales".

Fuente: Sociedad de Neurociencia Cognitiva / EurekAlert

!-- GDPR -->