La plataforma X volvió a colocarse en el centro del debate sobre inteligencia artificial y seguridad digital. Tras una oleada de denuncias por el uso de Grok —el asistente de IA asociado a la red de Elon Musk— para alterar fotos y generar imágenes sexualmente explícitas sin consentimiento, la herramienta dejó de permitir la generación y edición de imágenes para usuarios gratuitos. A partir de ahora, la función queda reservada a suscriptores de pago, con un mensaje directo cuando alguien intenta usarla: solo pagando se desbloquea esa capacidad.
El cambio busca, en teoría, introducir un freno con consecuencias más claras: al tratarse de una cuenta de pago, el nombre y la información de pago quedarían asociados a la imagen alterada. Musk lo resumió con una advertencia pública: quien use Grok para crear contenido ilegal enfrentará las mismas consecuencias que si lo subiera a la plataforma por su cuenta.
Sin embargo, la reacción institucional en Europa fue inmediata y dura. Desde el Gobierno británico se criticó que la decisión no elimina el problema, sino que convierte una función que puede generar contenido ilegal en un servicio “premium”, lo que, en palabras citadas, se percibe como un agravio para las víctimas de misoginia y violencia sexual. La Comisión Europea, por su parte, dijo tomar nota de los ajustes, pero los consideró insuficientes: el punto no es si se paga o no, sino que el diseño del sistema no permita la generación de contenido ilegal.
Qué está en juego para X
Este episodio no se limita a un escándalo reputacional. En Bruselas se anunció una medida cautelar y una orden de conservación que obliga a X a guardar documentación interna relacionada con Grok hasta finales de 2026. Además, se recuerda una multa previa de 120 millones de euros por infringir la Ley de Servicios Digitales (DSA), en un contexto donde el bloque europeo insiste en exigir a las plataformas controles efectivos sobre riesgos sistémicos.
Por qué el “muro de pago” no cierra el debate
El ajuste puede reducir el volumen inmediato de abusos, pero abre preguntas incómodas:
- ¿Basta con identificar al usuario que paga, si la función sigue disponible?
- ¿Qué mecanismos reales evitan que se produzcan imágenes no consentidas?
- ¿La plataforma está corrigiendo la raíz del problema o solo conteniendo el costo político?
Una académica que denunció el uso de Grok para atacarla con imágenes manipuladas describió el cambio como un “parche”: una pausa que puede ayudar, pero que no sustituye una discusión de fondo sobre límites éticos, prevención y responsabilidad en herramientas de IA que ya operan a escala masiva.



