Un reciente estudio publicado en la revista Science ha analizado la forma en que responden los chatbots y ha encontrado que éstos tienden a dar la razón a los usuarios, incluso cuando eso implica validar comportamientos problemáticos. El trabajo, realizado por investigadores de la Universidad de Stanford, señala que esta forma de responder hace que las personas confíen más en la IA cuando ésta respalda sus propias creencias.
La tendencia a dar la razón
Los investigadores comprobaron que los chatbots respaldaron las acciones de los usuarios un 49% más que otras personas en situaciones similares. Ese aumento se detectó incluso en preguntas relacionadas con engaños, comportamientos ilegales o decisiones socialmente problemáticas. La forma en que los chatbots responden puede llevar a que las personas se sientan más cómodas con sus decisiones, incluso cuando éstas no sean las más adecuadas.
El tono y el contenido
El estudio también encontró que cambiar el tono de las respuestas no alteraba el resultado. Cinoo Lee, investigador posdoctoral en psicología, explicó que 'probamos a mantener el contenido igual pero con una forma más neutra, y no hubo diferencia'. El problema aparece en lo que la IA comunica sobre la acción del usuario, no en el estilo superficial de la frase.
Implicaciones en diferentes ámbitos
Los efectos de esta tendencia pueden aparecer en diferentes ámbitos, como la medicina, la política o el uso militar. En medicina, un sistema que respalde la primera impresión de un médico puede llevar a que no revise otras opciones. En política, repetir lo que una persona ya piensa puede empujarla hacia posturas más extremas.





