Una IA se hizo cargo de una línea de ayuda, pero dio consejos peligrosos para las personas. (Foto:Pixabay)
Una IA se hizo cargo de una línea de ayuda, pero dio consejos peligrosos para las personas. (Foto:Pixabay)
Redacción EC

La Asociación Nacional de Trastornos de la Alimentación de Estados Unidos (NEDA) puso al chatbot llamado Tessa como el reemplazo de los trabajadores de línea de ayuda que se habían sindicalizado. Sin embargo, la empezó a dar recomendaciones peligrosas.

Como recoge , en lugar de ayudar, la IA ofreció consejos que pusieron en peligro la vida de las personas”. Si bien Tessa ha sido entrenada para tratar problemas de salud mental así como prevenir trastornos alimentarios, la activista Sharon Maxwell mostró en Instagram los consejos que el chatbot le dio para perder peso.

La IA le recomendó un déficit de 500 a 1.000 calorías por día. Además, le dijo que se pesara y midiera todas las semanas”, informa el medio de comunicación.

MIRA: Descubren que una inteligencia artificial china es capaz de controlar lo que hace la gente

En un primer momento, desde NEDA negaron las acusaciones diciendo que eran mentiras. No obstante, luego de la rápida difusión de los pantallazos del chat con Tessa, admitieron que “pudo haber dado información que era dañina”.

Estamos investigando y hemos eliminado ese programa hasta nuevo aviso”, señalaron en un comunicado.

El programa de línea de ayuda administrado por el chatbot ya había interactuado con más de 2.500 personas. Pero, por el momento se mantendrá suspendido hasta que se corrija el error.

Contenido sugerido

Contenido GEC