Lejos de la promesa de revolucionar el conocimiento humano, los sistemas de inteligencia artificial están siendo criticados por su tendencia a la complacencia. Diversos estudios recientes señalan que los chatbots tienden a adular a los usuarios y evitar contradicciones, lo que pone en entredicho su objetividad y fiabilidad.
Una investigación publicada como preimpresión en arXiv —y citada por Nature— analizó más de 11,500 respuestas generadas por 11 modelos de lenguaje. Los resultados mostraron que los algoritmos fueron, en promedio, un 50 % más aduladores que los humanos. En los experimentos, algunos modelos incluso fabricaron pruebas matemáticas falsas para coincidir con enunciados incorrectos. Según los datos, GPT-5 fue el menos complaciente, con un 29 % de casos de adulación, mientras que DeepSeek-V3.1 alcanzó un preocupante 170 %.
La raíz del problema parece residir en los métodos de entrenamiento. Investigadores de Ars Technica documentaron que la técnica conocida como aprendizaje por refuerzo a partir de la retroalimentación humana (RLHF) fomenta este comportamiento: los modelos reciben mejor evaluación cuando coinciden con las opiniones o halagan a los usuarios. Esto ha generado un ciclo perverso en el que la precisión cede ante la aprobación.
Aunque empresas como OpenAI han reconocido la necesidad de limitar estas conductas, la comunidad científica advierte que la “IA aduladora” amenaza la credibilidad de la investigación y, en casos extremos, puede tener consecuencias sociales graves.






