6 de junio de 2025 7:15 am
Cerrar / Abrir

Alertan sobre Riesgos de Chatbots de IA como Verificadores: No Distinguen Verdad de Mentira

Ante la reducción de verificadores humanos, usuarios recurren a chatbots de IA como Grok, ChatGPT y Gemini para verificar información, pero estudios recientes demuestran que estos sistemas no distinguen la verdad de la mentira. Los chatbots suelen repetir falsedades e incluso inventar datos, generando preocupación sobre su fiabilidad, especialmente en noticias de actualidad y temas sensibles.

En un contexto de creciente desinformación y con la reducción de verificadores humanos en las grandes plataformas tecnológicas, los usuarios de redes sociales están recurriendo cada vez más a chatbots basados en inteligencia artificial (IA), como Grok de xAI, ChatGPT de OpenAI y Gemini de Google, en busca de información fiable. Sin embargo, un reciente conflicto entre India y Pakistán demostró la poca fiabilidad de estas herramientas como verificadores de datos, ya que lejos de disipar falsedades, a menudo las amplificaron, subrayando que la IA no distingue la verdad de la mentira.

La pregunta «¿Hola @Grok, ¿esto es verdad?» se ha vuelto habitual en la plataforma X de Elon Musk, donde el asistente de IA está integrado. Esta tendencia refleja la búsqueda instantánea de desmentidos en línea, pero las respuestas del chatbot a menudo están «plagadas de desinformación». Por ejemplo, Grok ha sido objeto de escrutinio por insertar la teoría conspirativa de extrema derecha del «genocidio blanco» en consultas no relacionadas. Además, durante el conflicto entre India y Pakistán, Grok identificó erróneamente un video antiguo del aeropuerto de Jartum, Sudán, como un ataque con misiles a una base aérea paquistaní, y grabaciones de un edificio en llamas en Nepal se identificaron falsamente como una respuesta militar paquistaní.

McKenzie Sadeghi, investigadora del organismo de vigilancia de la desinformación NewsGuard, declaró a la AFP que la creciente dependencia de Grok como verificador de datos coincide con la reducción de inversiones en verificadores humanos por parte de X y otras grandes empresas tecnológicas. Las investigaciones de NewsGuard han demostrado repetidamente que los chatbots de IA no son fuentes fiables de noticias e información, especialmente en lo que respecta a eventos de actualidad. Un estudio del Centro Tow para el Periodismo Digital de la Universidad de Columbia sobre ocho herramientas de búsqueda con IA encontró que los chatbots son «generalmente malos para declinar preguntas que no podían responder con precisión, ofreciendo en su lugar respuestas incorrectas o especulativas».

Todo el contenido de El Comentario del Día en la palma de tu mano. Suscríbete a nuestros canales de difusión: WhatsApp | Telegram

El contenido de este artículo ha sido generado a partir de información disponible en fuentes públicas y ha sido parafraseado utilizando herramientas de inteligencia artificial con el propósito de ofrecer una redacción original. No se realiza copia literal ni reproducción íntegra de contenidos protegidos por derechos de autor, respetando así la normativa aplicable. Si considera que algún contenido pudiera afectar derechos de autor o requiera aclaraciones, por favor escríbanos a: contacto@comentariodeldia.com para su revisión y, en su caso, la adopción de medidas correspondientes.

PUBLICIDAD

PUBLICIDAD