Ciencia y Tecnología

Desarrollan en MIT sistema mejorado para percibir emociones humanas

Investigadores del Instituto de Tecnología de Massachusetts (MIT, por sus siglas en inglés) desarrollaron un modelo de aprendizaje automático que lleva a las computadoras a interpretar las emociones humanas y trabajan en su mejoramiento para monitorear el estado de salud de una persona.

Los modelos tradicionales de computación afectiva usan un concepto de “talla única para todos” y consiste en “entrenar” a los sistemas con un conjunto de imágenes que representan diversas expresiones faciales, optimizan las características y “mapean” las expresiones.

En un avance en el campo de “informática afectiva”, los investigadores del MIT, en cambio, combinaron una técnica llamada “mezcla de expertos” (serie de modelos de redes neuronales) con otra denominada de personalización del modelo, que ayudan a extraer datos “más finos” de las expresiones facial de los individuos.

En el creciente campo de la “informática afectiva” se desarrollan robots y computadoras para analizar las expresiones faciales, interpretar las emociones y responder en consecuencia. Las aplicaciones incluyen, por ejemplo, monitorear la salud y el bienestar de una persona, evaluar el interés de los estudiantes en las aulas, ayudar a diagnosticar los signos de enfermedades y desarrollar compañeros útiles de robots.

En un comunicado, el MIT da a conocer el modelo de aprendizaje automático que busca responder a los desafíos de interpretar las expresiones considerando las culturas, géneros y grupos de edad, además de otros factores más específicos.

Durante la Conferencia sobre Aprendizaje Automático y Minería de Datos, Oggi Rudovic, investigador de Media Lab del MIT y participante del proyecto, explicó que esta es una manera importante de monitorear los estados de ánimo.

“Si quieres robots con inteligencia social, tienes que hacerlos de forma inteligente y natural para responder a nuestros estados de ánimo y emociones”, enfatizó.

En la técnica de mezcla de expertos, los modelos están capacitados para especializarse en tareas de procesamiento y trabajaron con grabaciones de video individuales de una base de datos denominada RECOLA, una base pública de personas que conversan en una plataforma de video chat diseñada para aplicaciones de informática afectiva. Entrenaron el modelo usando las actitudes de los sujetos.

Cada “experto” registraron las expresiones faciales de cada individuo, con la ayuda de una red neuronal utilizada para la clasificación de objetos. Al hacerlo, el modelo calificó cada cuadro en función del nivel de valencia (agradable o desagradable), métricas utilizadas para codificar diferentes estados emocionales.

Una aplicación prometedora son las interacciones humano-robóticas, como la robótica personal o los robots utilizados con fines educativos, donde los sistemas automatizados deben adaptarse para evaluar los estados emocionales de personas diferentes. Una versión, por ejemplo, se ha utilizado para ayudar a los robots a interpretar mejor los estados de ánimo de los niños con autismo.

NTX/MSG

NOTICIAS RELACIONADAS

Back to top button