Hace cuatro días un tribunal federal en el Estado de México incorporó herramientas de inteligencia artificial para fundamentar un cálculo técnico —el monto de una garantía— y lo hizo públicamente: explicó la metodología, usó fuentes oficiales (INEGI, Banxico) y dejó claro que la supervisión humana sigue siendo insustituible. Este precedente (resuelto el 21–22 de agosto de 2025) abre un debate práctico y urgente sobre cómo gobernar la IA en decisiones que afectan derechos y patrimonio.
Como director de TI, veo dos verdades simultáneas: la tecnología puede aportar rigor cuantitativo y trazabilidad; y, si se implementa sin marcos, puede erosionar confianza y derechos. La diferencia entre ambos resultados no la dicta el algoritmo, sino la gobernanza que lo rodea: requisitos de transparencia, evaluación de impacto, control de sesgos, trazabilidad de datos y supervisión humana efectiva —principios que ya aparecen en estándares internacionales sobre ética de la IA.
¿Qué aprendizaje operativo dejo para equipos tecnológicos y líderes que deben diseñar estas soluciones en entornos regulados?
- Diseñar con propósito y proporcionalidad. Antes de automatizar un cálculo jurídico, define el objetivo, los límites y por qué la IA aporta ventaja objetiva frente a métodos tradicionales.
- Transparencia metodológica obligatoria. Publica (o deja accesible en expediente) el modelo usado, las fuentes de datos y los supuestos —no como jerga técnica, sino con explicabilidad legible para no especialistas. (La reciente resolución exige declaración y justificación del método).
- Evaluación de impacto y control de sesgos. Implementar pruebas previas (benchmarks, stress tests) y métricas de equidad; registra versiones y compara resultados con alternativas humanas.
- Trazabilidad y auditoría. Logs inmutables que permitan reconstruir cada cálculo: entrada, versión del modelo, parámetros y salida. Esto convierte una caja negra en una caja auditable.
- Protección de datos y minimización. Usa sólo datos estrictamente necesarios; aplique anonimización y límites de retención. Integridad y privacidad son requisitos, no opciones.
- Pilotos con puertas de salida. Prueba en casos pilotos, mide discrepancias y define umbrales que obliguen a revisión humana antes de automatizar decisiones críticas.
- Gobernanza interdisciplinaria. Equipo mixto: TI, especialistas legales, ética, protección de datos y representantes de la ciudadanía —decisiones tecnológicas en justicia requieren legitimidad social.
- Plan de comunicación y capacitación. Jueces, secretarios y partes deben comprender el propósito y limitaciones; la confianza se gana con interlocutores bien informados.
Estos pasos no son mera burocracia; son ingredientes para que la IA entregue valor comprobable sin hipotecar legitimidad. Si la tecnología entrega resultados más objetivos y verificables —como ocurrió en la resolución mencionada— la justicia gana en eficiencia; si llega sin reglas, la confianza pública se fractura.
Si diriges iniciativas de transformación digital en un órgano regulado o en una empresa con alto impacto social, propongo tres entregables inmediatos que yo desplegaría en 8 semanas: (1) un marco mínimo de gobernanza de IA adaptado al contexto jurídico; (2) un piloto técnico con trazabilidad completa y pruebas de equidad; (3) un paquete de comunicación y capacitación para usuarios y audiencias externas.
La innovación institucional no es un ejercicio técnico aislado: es una conversación entre técnica, derecho y ciudadanía. Si tu organización busca liderazgo pragmático, con experiencia en gobernanza de datos, seguridad y despliegues responsables de IA, estoy abierto a colaborar y compartir mi enfoque práctico. Conectemos y conversemos estrategias aplicables hoy.