Mujer hablando por teléfono. (Imagen: SIAVASH GHANBARI / UNSPLASH)
Mujer hablando por teléfono. (Imagen: SIAVASH GHANBARI / UNSPLASH)
Agencia Europa Press

Agencia de noticias

Investigadores de la Universidad de Maryland (Estados Unidos) han desarrollado un modelo de que permite a una aplicación para analizar la voz y advertir cambios que indican que una persona sufre depresión o que está empeorando.

MIRA: Facebook busca modelos de IA que midan sus fuerzas contra uno de los juegos más difíciles del mundo

La nueva tecnología, presentada en la 180ª reunión de la Asociación Acústica Americana (ASA), se basa en un sistema de inversión de habla que mapea señales acústicas para localizar variaciones en la voz de las personas.

Con esta información, un modelo de IA implementado en una aplicación es capaz de mostrar el tiempo y el movimiento espacial de los gestos del habla, un elemento que puede usarse para detectar depresiones y otras enfermedades mentales, según recoge el .

Su autora principal, la investigadora de la Universidad de Maryland Carol Espy-Wilson, ha explicado que “la depresión suele ir acompañada de lentitud psicomotora” que hace que las personas no puedan pensar ni hablar rápido, de manera que las personas con depresión “hacen más pausas y más largas que quienes no están deprimidos”.

MIRA: Wu Dao 2.0, el modelo de IA de aprendizaje profundo más grande del mundo

El uso de técnicas de aprendizaje automático en la aplicación permite entrenar a un modelo que clasifica los datos de voz según la salud mental de las personas, con el objetivo de ayudar a estas a que a través de su celulares sean capaces de estar informadas sobre su estado.

Los investigadores esperan que esta información pueda utilizarse para alertar a las personas cuando se detecta que los síntomas de la depresión están empeorando.

Conforme a los criterios de

Trust Project
Saber más

VIDEO RECOMENDADO

¿Cómo será la vida con la 6G?
¿Cuánto tardaría descargar una película de en HD de 6GB con 6G? Descúbrelo en este video.

TE PUEDE INTERESAR

Síguenos en Twitter...