Reconocer emociones mediante la voz entrelazando la tecnología y emociones es el objetivo de los investigadores de la Universidad Politécnica de Madrid (UPM) avanzando en la posibilidad de crear un modelo basado en redes neuronales profundas para reconocer emociones en el lenguaje hablado a través de tecnologías de aprendizaje profundo o deep learning.
En palabras de Javier de Lope Asiaín, profesor titular de la universidad dentro del departamento de Inteligencia Artificial que depende de la Escuela Técnica Superior de Ingenieros Informáticos: “la tecnología de reconocimiento de voz está lo suficientemente desarrollada y madura para permitir nuevos tipos de aplicaciones e interfaces (…) lejos quedan ya los primeros programas de ordenador que permitían conjuntos reducidos de comandos que se asociaban con programas para que se ejecutasen al pronunciar la palabra, o esas otras utilidades empleadas en el dictado de textos (…) La siguiente fase trata de reconocer no solo el contenido del mensaje, sino también las emociones expresadas en el propio mensaje”.
Este escenario plantea incontables situaciones en las que puede tener cabida esta nueva aproximación, pero una en la que se ve más clara su aplicación quizá se refiera a los sistemas de atención al cliente. No obstante, incide, en otras ocasiones “puede ser más interesante detectar otro tipo de emociones producidas por condiciones de depresión o baja autoestima. La detección de estos casos haría posible su tratamiento por parte de profesionales”. Un ejemplo más en el que los sistemas de reconocimiento de emociones mediante voz también pueden resultar igual de útiles es en el campo de la robótica, “tanto en asistentes robóticos como a nivel industrial aumentando el interfaz de robots colaborativos”.