Durante un reciente conflicto entre India y Pakistán, usuarios que recurrieron a chatbots de inteligencia artificial para verificar información se toparon con múltiples errores y falsedades. Este episodio evidencia la limitada confiabilidad de estas herramientas como fuentes fidedignas en la verificación de hechos, especialmente ante la disminución de verificadores humanos en plataformas digitales.
Modelos como Grok, integrado en la red social X, y otros desarrollados por OpenAI y Google, han sido criticados por ofrecer respuestas equivocadas o inventar detalles. Por ejemplo, Grok confundió un video antiguo del aeropuerto de Jartum con un ataque misilístico en Pakistán, y aseguró falsamente la autenticidad de imágenes y videos generados por IA. Esto refleja una problemática común: los chatbots tienden a repetir desinformación sin distinguir entre verdad y mentira.
Expertos en vigilancia contra la desinformación advierten que, aunque el uso de asistentes virtuales crece, su desempeño en noticias recientes y temas sensibles es deficiente. Investigaciones recientes muestran que estas inteligencias artificiales suelen generar respuestas especulativas y sesgadas, que pueden incluso estar influidas por ajustes hechos por programadores humanos con agendas específicas.
La reducción de controles humanos en la verificación digital y el traslado de esa responsabilidad a los usuarios, junto con la manipulación de los propios chatbots, incrementan la preocupación sobre su uso indiscriminado. La comunidad especializada insiste en que estas herramientas no deben ser vistas como sustitutos confiables para la verificación profesional, especialmente en un entorno informativo tan polarizado y vulnerable a la manipulación.



