Científicos de la Universidad de Granada, en colaboración con la Carlos III de Madrid, han desarrollado un sistema informático que permite a una máquina reconocer de forma automática el estado de ánimo de una persona que se comunica oralmente con ella y adaptar la forma de responderle. Para detectar el estado emocional del usuario, los investigadores se centraron en las emociones negativas que pueden hacer que se frustre al hablar con un sistema automático.

Su trabajo ha considerado el enfado, el aburrimiento y la duda y, para detectarlas automáticamente, utilizaron información sobre el tono de voz, la velocidad con la que se habla, la duración de las pausas, la energía de la señal de voz y así hasta 60 parámetros acústicos distintos. También emplearon información sobre cómo se ha desarrollado el diálogo para ajustar la probabilidad de que un usuario esté en un estado emocional u otro. Por ejemplo, el que el sistema no haya reconocido bien varias veces lo que su interlocutor desea decirle o le ha pedido al usuario que repita información que ya había proporcionado pueden ser factores que hagan que el usuario se enfade o se aburra de interactuar con el sistema.