Hay una escena que se repite en los pasillos del Tribunal Superior de Justicia de Chihuahua: un litigante carga un expediente de ochocientas fojas con post-its que se caen. A tres cuadras, un estudiante de tercer semestre le pide a una inteligencia artificial que le resuma mil páginas de jurisprudencia del Semanario Judicial. Lo hace en treinta segundos.

Esa es, en una sola imagen, la fractura que atraviesa hoy al derecho mexicano. No es tecnológica: es cultural, generacional y política. Y mientras seguimos debatiendo si la IA “viene a sustituir al abogado” —una pregunta tan útil como preguntarse en 1995 si el correo electrónico sustituiría al papel carbón—, en los hechos ya está cambiando quién gana juicios, quién cobra honorarios justos y a quién le llega la justicia.

El 22 de agosto de 2025, un Tribunal Colegiado mexicano utilizó ChatGPT, Grok y Gemini para calcular el monto de una garantía procesal. Promedió los resultados y fijó la fianza en sesenta mil pesos. Nació así la primera tesis mexicana sobre uso judicial de IA. Pionera, sí. ¿Sólida? No tanto: el magistrado no auditó por qué los tres modelos arrojaron cifras distintas. Brasil regula esto con trazabilidad obligatoria desde su Resolución 615/2025. México empezó al revés: dictó el precedente antes de tener las reglas. Mientras tanto, un tribunal federal de Alabama descalificó en 2025 a tres abogados por citar jurisprudencia inexistente generada por ChatGPT. En Colombia, la Corte Suprema multó en febrero a un abogado con quince salarios mínimos por diez sentencias fantasma. En México no hay sanción análoga documentada. No porque no esté pasando. Porque nadie está revisando.

Se habla mucho de “resistencia cultural” del gremio. Es una frase cómoda que no dice nada. El litigante que factura por hora no tiene incentivo para adoptar una herramienta que haga en diez minutos lo que hoy cobra en diez horas. La resistencia no es cultural: es económica. La facultad de Derecho promedio sigue evaluando al estudiante por memorizar artículos del Código Civil. En un mundo donde cualquier teléfono contesta eso en dos segundos, formamos abogados para un examen de 1987. No es conservadurismo: es pereza curricular. Y ni el Consejo de la Judicatura ni los tribunales estatales —incluido el de Chihuahua— han emitido un solo lineamiento vinculante sobre IA en sentencias. No es prudencia: es omisión, y va a estallar el día que un amparo se resuelva con jurisprudencia inventada.

Chihuahua es laboratorio ideal de esta transición. Somos el estado con mayor densidad de litigios laborales y mercantiles derivados del “nearshoring”. Tenemos frontera, Fiscalía saturada y juzgados con rezagos de años. Una Fiscalía que usara IA para clasificar carpetas liberaría horas-analista. Un defensor de oficio con una herramienta decente podría, por primera vez, litigar en igualdad de armas contra el despacho corporativo que hoy lo aplasta con escritos de doscientas páginas. Nada de esto está pasando, porque adoptarlo implica admitir que lo que hacíamos antes era ineficiente.

Basta de llamados generales a “actualizarnos”. Propongo dos cosas concretas. Primero, que la Universidad Autónoma de Chihuahua incorpore en el ciclo 2026-2027 una materia obligatoria de LegalTech y gobernanza algorítmica. Si Guadalajara ya lo hace, Chihuahua no tiene excusa. Segundo, que el Tribunal Superior de Justicia del Estado emita este año un acuerdo que obligue a declarar en el expediente cualquier uso de IA en proyectos de sentencia. Transparencia, no prohibición.

La pregunta verdadera es dura: ¿estamos dispuestos a que la brecha tecnológica se convierta en una brecha de acceso a la justicia? Un sistema de dos velocidades: justicia algorítmica para quien sepa pedirla, justicia de papel carbón para el resto.

La IA ya llegó. La pregunta es si Chihuahua liderará esa conversación o se enterará por el noticiero, cinco años tarde, cuando otros ya escribieron las reglas.