Durante un reciente conflicto entre India y Pakistán, muchos usuarios recurrieron a chatbots de inteligencia artificial para confirmar la veracidad de noticias, pero encontraron que estas herramientas, lejos de aclarar, propagaron desinformación. Esta situación evidenció la limitada fiabilidad de estos asistentes digitales para funciones de verificación en tiempo real.
Con la reducción de personal dedicado a la verificación humana en grandes plataformas tecnológicas, el público ha incrementado su dependencia en chatbots como Grok, ChatGPT y Gemini para obtener información confiable. Sin embargo, investigaciones de NewsGuard muestran que estos sistemas frecuentemente replican falsedades, incluyendo narrativas conspirativas, debido a fallas en sus procesos de entrenamiento y moderación.
En múltiples casos documentados, estos asistentes cometieron errores graves, como atribuir videos antiguos o fabricados a eventos recientes o confirmar falsamente la autenticidad de imágenes generadas por IA. Estas equivocaciones no solo confunden a los usuarios sino que también ayudan a difundir contenidos erróneos que pueden ser usados como “pruebas” por terceros.
Además, expertos en verificación de datos advierten sobre el riesgo de sesgos y manipulación política detrás de la programación de estas inteligencias artificiales. Por ejemplo, Grok ha sido criticado por insertar teorías conspirativas extremas en respuestas no relacionadas, lo que incrementa la desconfianza sobre su imparcialidad y precisión. Este fenómeno subraya la necesidad de mantener el papel fundamental de verificadores humanos en la lucha contra la desinformación.