EMOLTV

Nuevo algoritmo le otorgará "inteligencia emocional" a los Smartphones

Un programa analiza 12 funciones del habla, como el tono y el volumen, para identificar una de entre seis emociones a partir de una grabación de sonido.

08 de Diciembre de 2012 | 09:57 | Emol
imagen
Carlos Catalán, LUN

NUEVA YORK. En el Taller IEEE sobre Tecnología del Habla que se celebra hoy, investigadores de la Universidad de Rochester (Nueva York) describirán un nuevo programa de software que mide los sentimientos humanos a través del habla, con una precisión mucho mayor que los enfoques existentes hasta ahora.

El programa analiza 12 funciones del habla, como el tono y el volumen, para identificar una de entre seis emociones a partir de una grabación de sonido, explica Wendi Heinzelman, profesor de ingeniería eléctrica e informática, en una nota de prensa publicada en EurekAlert.

Dicha facultad la lleva a cabo con un 81 % de precisión y sin tener en cuenta el significado de las palabras. "De hecho utilizamos grabaciones de actores que leen la fecha del mes -realmente no importa lo que dicen, sino cómo lo están diciendo" , agrega.

Na Yang, estudiante de posgrado de Heinzelman utilizó la investigación para desarrollar un prototipo de aplicación que muestra una cara feliz o triste tras analizar la voz del usuario.

Pero para que un ordenador categorice emociones necesita trabajar con cantidades medibles. Así que los investigadores establecieron 12 funciones específicas en el habla que se midieron en cada grabación a intervalos cortos. Luego, los investigadores clasificaron cada una de las grabaciones y las usaron para enseñar al programa de ordenador cómo suena una persona "triste", "feliz", "asustada", "disgustada" o "neutral".


Retos pendientes


Si el programa no conseguía decidirse entre dos o más emociones, dejaba la grabación sin clasificar.


"Queremos estar seguros de que cuando el ordenador piensa que el discurso grabado refleja una emoción particular, sea muy probable que se trate en realidad de esa emoción", explica Heinzelman.

Investigaciones anteriores han demostrado que. Resultados de la investigación confirmaron que los sistemas de clasificación de emociones dependen mucho del hablante, y que funcionan mucho mejor si el sistema está entrenado por la misma voz que se analizará.

Los investigadores ahora están buscando maneras de minimizar este efecto, por ejemplo mediante la formación del sistema con una voz en el mismo grupo de edad y del mismo sexo. Como dice Heinzelman, "todavía hay retos por resolver si queremos utilizar este sistema en un entorno parecido a una situación de la vida real, pero sí sabemos que el algoritmo que hemos desarrollado es más eficaz que los intentos anteriores".

EL COMENTARISTA OPINA
¿Cómo puedo ser parte del Comentarista Opina?