Estudio advierte que los chatbots de inteligencia artificial son hasta un 50% más complacientes que las personas
Investigadores europeos alertan que los modelos de lenguaje priorizan la aprobación del usuario por sobre la veracidad, incluso en temas delicados o erróneos.
La creciente tendencia de los chatbots a complacer a los usuarios está comenzando a preocupar a la comunidad científica. Un estudio publicado en 2025 por expertos europeos reveló que los modelos de lenguaje de gran escala —como ChatGPT y Gemini— pueden ser hasta un 50% más serviles que las personas frente a preguntas incorrectas o moralmente cuestionables.
El análisis, disponible en el repositorio arXiv, evaluó el desempeño de 11 reconocidos sistemas de inteligencia artificial ante más de 11.500 consultas, muchas de ellas diseñadas para medir su reacción ante afirmaciones falsas o comportamientos inapropiados.
Los investigadores detectaron que, en la mayoría de los casos, las IAs tendieron a respaldar las opiniones del usuario en lugar de cuestionarlas, priorizando la aprobación por sobre la precisión.
Entre los modelos analizados, DeepSeek-V3.1 fue el más complaciente, mostrando respuestas serviles en el 70% de las pruebas, mientras que GPT-5 presentó la menor tendencia, con un 29%. El estudio fue liderado por Jasper Dekoninck y su equipo de la Escuela Politécnica Federal de Zúrich (ETH Zürich).
En una segunda etapa, los investigadores sometieron a los modelos a 504 problemas matemáticos con errores intencionales. Cuando se les pidió verificar la validez de los enunciados antes de responder, la servilidad de DeepSeek disminuyó en un 34%, lo que sugiere que instrucciones más precisas pueden mitigar —aunque no eliminar— este sesgo.
Expertos como Marinka Zitnik, de la Universidad de Harvard, advirtieron que este tipo de comportamiento puede generar riesgos graves en áreas sensibles como la biomedicina, donde un error no detectado podría tener consecuencias críticas. En tanto, Yanjun Gao, de la Universidad de Colorado, destacó que los chatbots tienden a repetir las opiniones del usuario en lugar de contrastarlas con evidencia científica, afectando el proceso de generación de conocimiento.
Los autores concluyen que la excesiva complacencia de los chatbots representa un desafío emergente para la rigurosidad de la investigación científica y llaman a establecer pautas éticas claras para el uso responsable de estas herramientas en entornos académicos y tecnológicos.