Se ha creado un equipo informático que aprende a interpretar las emociones humanas basadas en el patrón de los labios, según un estudio publicado en Journal of Artificial Intelligence and Soft Computing. El sistema podría mejorar la forma en que interactuamos con los ordenadores y tal vez permitir que las personas con discapacidad usaran computadoras basadas en dispositivos de comunicaciones, tales como sintetizadores de voz, de manera más eficaz y más eficiente.
Karthigayan Muthukaruppanof de la Manipal International University en Selangor, Malasia y colaboradores han desarrollado un sistema que utiliza un algoritmo genético que se pone mejor y mejor con cada iteración para ajustar las ecuaciones de elipse irregular a la forma de la boca humana mostrando diferentes emociones. Se han utilizado fotos de personas provenientes del sudeste asiático y Japón para entrenar a un equipo para que reconozca las seis emociones humanas comúnmente aceptadas – felicidad, tristeza, miedo, ira, asco, sorpresa – y una expresión neutral. El labio superior y el inferior se analizaron como dos elipses separadas por el algoritmo.
«En los últimos años, ha habido un creciente interés en mejorar todos los aspectos de la interacción entre humanos y computadoras, especialmente en el área de reconocimiento de emociones humanas mediante la observación de la expresión facial», explica el equipo. Investigadores anteriores han desarrollado un procedimiento que permite crear emociones mediante la manipulación de una representación del rostro humano en una pantalla de ordenador. Este tipo de investigación está informando el desarrollo de agentes animados más realistas e incluso el comportamiento de los robots. Sin embargo, el proceso inverso en el que un ordenador reconoce la emoción detrás de una cara humana real sigue siendo un problema difícil de abordar.
Es bien sabido que muchas emociones más profundas son traicionadas por más movimientos de la boca. Una sonrisa genuina, por ejemplo, consiste en la flexión de los músculos alrededor de los ojos y los movimientos de las cejas son casi universalmente esenciales para la interpretación subconsciente de los sentimientos de una persona. Sin embargo, los labios siguen siendo una parte crucial de la expresión externa de la emoción. El algoritmo del equipo con éxito puede clasificar a las siete emociones y una expresión neutral descritas. Los investigadores sugieren que las solicitudes iniciales de este tipo de detector de emoción podría ayudar a los pacientes con discapacidad que carecen de voz para interactuar más eficazmente con los dispositivos de comunicación basados en ordenaadores, por ejemplo.
Revista de la publicación: International Journal of Artificial Intelligence and Soft Computing