El grupo reemplaza la línea directa con un chatbot, y el chatbot se retira debido a un mal consejo.

El grupo reemplaza la línea directa con un chatbot, y el chatbot se retira debido a un mal consejo.

Es un movimiento que podría complacer a cualquier persona preocupada por los posibles efectos de destrucción de empleo de las herramientas de IA. como BBC Según los informes, la Asociación Nacional Estadounidense de Trastornos de la Alimentación (NEDA) tuvo que eliminar su chatbot «Tessa» después de que comenzó a recomendar estrategias dietéticas potencialmente dañinas para las personas con trastornos de la alimentación. Esto sucedió solo una semana después de que NEDA decidiera usar un robot en lugar de una línea de ayuda en vivo dirigida por humanos. El problema con Tessa fue anunciado por el grupo Instagram puesto, por suerte. «Nos ha llamado la atención… que la versión actual de Tessa Chatbot… puede haber proporcionado información maliciosa», decía la publicación. «Estamos investigando esto de inmediato y hemos suspendido ese programa hasta nuevo aviso para una investigación completa».

como NPR informó el miércoles, NEDA recurrió a AI después de administrar una línea de ayuda en vivo para personas con anorexia, bulimia y otros trastornos alimentarios durante más de dos décadas. Según los informes, la organización sin fines de lucro notificó a los empleados de la línea de ayuda menos de una semana después de formar un sindicato. NEDA dijo que el cambio no tiene nada que ver con la sindicalización de empleados en vivo y todo que ver con un aumento en las llamadas y mensajes de texto a la línea directa durante la pandemia de COVID-19. Este aumento en el volumen de llamadas, según el liderazgo de NEDA, significa una mayor responsabilidad y, por lo tanto, «el enfoque del uso ampliado de la tecnología asistida por IA».

READ  LaToya Faustin '04 tiene la misión de construir sueños en su comunidad

En cuanto al mal comportamiento de Tessa, CNN Informes La directora ejecutiva de NEDA, Liz Thompson, culpó a los «malos actores» que intencionalmente intentaron que el chatbot proporcionara consejos dañinos o incluso irrelevantes a los usuarios. Antes de anunciar problemas con los bots, ex empleados de la línea de ayuda chirrido Una declaración que dice que los chatbots no pueden «sustituir la empatía humana, y creemos que esta decisión causará un daño irreparable a la comunidad de trastornos alimentarios». (Lea más historias de IA).

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *