Ante la disminución de verificadores humanos en las principales plataformas digitales, muchos usuarios están acudiendo a chatbots de inteligencia artificial como Grok, ChatGPT o Gemini en busca de información confiable. Sin embargo, varios estudios recientes advierten que estas herramientas no son efectivas para distinguir entre hechos reales y desinformación, y que incluso pueden reforzar narrativas falsas.
Durante un reciente conflicto entre India y Pakistán, se hizo evidente la poca fiabilidad de estas IA como fuentes de verificación. Por ejemplo, Grok identificó erróneamente un antiguo video grabado en Sudán como parte del conflicto actual, y describió imágenes de un incendio en Nepal como parte de una supuesta represalia militar pakistaní. Estos errores se suman a una larga lista de respuestas incorrectas y especulativas generadas por estos sistemas.
Organismos como NewsGuard y el Centro Tow de la Universidad de Columbia han detectado que los chatbots son propensos a repetir narrativas falsas, incluyendo desinformación rusa. Además, un caso reciente en Uruguay mostró cómo Gemini no solo validó una imagen generada por IA, sino que inventó datos para respaldarla. Grok también declaró auténtico un video falso de una anaconda gigante, lo que llevó a varios usuarios a creer en su veracidad.
La confianza creciente en estos sistemas preocupa a expertos, especialmente cuando grandes empresas como Meta han eliminado sus programas de verificación externos, trasladando la responsabilidad de desmentir noticias a los usuarios. Además, se ha cuestionado la imparcialidad de los chatbots, dado que su entrenamiento puede ser manipulado por intereses políticos o ideológicos. Investigadores advierten que sin supervisión humana adecuada, estas herramientas podrían amplificar aún más la desinformación en lugar de combatirla.