
En México, ya no todas las auditorías empiezan con un inspector. Algunas empiezan con un algoritmo
El Servicio de Administración Tributaria está incorporando herramientas de análisis masivo de datos e inteligencia artificial para detectar posibles esquemas de evasión. Es decir, antes de que un funcionario revise tu caso, es probable que una máquina ya te haya clasificado.
Hace unos días, la periodista Elizabeth Claudia Velázquez Hernández documentó un caso revelador: mediante herramientas de inteligencia artificial se identificó una red de facturación ilegal con más de 100 mil contribuyentes sospechosos. El hallazgo no es menor. Muestra la capacidad real del Estado para procesar grandes volúmenes de información y detectar patrones que serían invisibles para el ojo humano.
Dicho de forma simple: la IA sí sirve, y mucho. Ahora bien, que funcione no significa que esté bien regulada.
Que quede claro: la obligación de pagar impuestos es —y seguirá siendo— uno de los pilares de cualquier Estado. Sin ingresos públicos no hay oportunidades laborales, no hay carreteras, hospitales ni tribunales. En este contexto, el 22 de enero de 2024 el gobierno de México presentó el llamado Plan Maestro del SAT, en el que se anunció la optimización de procesos de fiscalización. Y entre líneas, el mensaje es claro: más automatización mejor eficiencia en la recaudación de impuestos. Hasta aquí, todo bien. El problema empieza cuando preguntamos: ¿cómo funciona esa inteligencia artificial?
No hay —al menos de forma accesible— información clara en los canales del SAT que explique qué sistemas se utilizan, bajo qué criterios operan o qué tipo de decisiones automatizan. No existe, por ejemplo, en su página oficial, un aviso sencillo al contribuyente que diga: “se emplean herramientas de inteligencia artificial para evaluar el cumplimiento de tus obligaciones fiscales; si deseas conocer cómo funcionan, consulta este micrositio”.
Ese pequeño gesto de transparencia haría una gran diferencia. Porque uno de los principales riesgos de la inteligencia artificial en el ámbito público es la llamada “caja negra”: sistemas que toman decisiones sin que el ciudadano pueda entender por qué. Y en materia fiscal, eso no es solo un tema técnico; es un tema de derechos.
El académico Eugenio Arguelles Toache ha señalado con claridad la importancia de cuestionar estos modelos en México, especialmente cuando impactan directamente en la esfera jurídica de las personas. No se trata de frenar la innovación, sino de exigir que sea explicable.
Para el ciudadano común, esto no es un debate técnico ni lejano. Es algo muy concreto: si el Estado decide poner al contribuyente bajo sospecha, tiene derecho a saber por qué. No es un favor, es legalidad básica. Sin explicación, el contribuyente queda en desventaja frente a una decisión que no entiende y que, por lo mismo, no puede cuestionar.
Piénselo así: una vez iba yo caminando, con la tranquilidad de quien no le debe nada a nadie (o al menos eso cree), cuando un señor, muy convencido de sí mismo, decidió que yo era la persona indicada para recibir un golpe. Me lo lanzó con determinación… y con muy mala puntería, lo cual agradecí profundamente. Acto seguido apareció una señora, visiblemente molesta, y le dijo: “¡tonto, no era él, te dije que era el joven!”. Para entonces, el joven en cuestión ya había desaparecido con la eficacia que da la juventud.
La escena es absurda, pero ilustra bien el problema: una decisión tomada sin explicación, basada en un error, que recae sobre la persona equivocada. Si ese señor hubiera empezado por decir qué buscaba, todo se habría resuelto en segundos.
Eso mismo pasa con la inteligencia artificial cuando opera sin transparencia. Puede equivocarse, y señalar al “contribuyente incorrecto”. Y si no hay una explicación clara detrás, el ciudadano queda exactamente en la misma posición: recibiendo el golpe… sin saber por qué.
Y esto no es una discusión teórica.
En Europa, el caso SyRI marcó un precedente importante. El gobierno de los Países Bajos utilizó un sistema algorítmico para detectar fraude en beneficios sociales. El problema: el modelo era opaco. No se sabía cómo clasificaba a las personas ni bajo qué criterios generaba sospechas. Un tribunal declaró ilegal el sistema por violar derechos fundamentales.
En México estamos a tiempo de hacer las cosas bien. La inteligencia artificial puede fortalecer la recaudación. Pero si se implementa sin transparencia va a dar dolores de cabeza (y no solo a los particulares).
La diferencia entre un Estado moderno y uno autoritario no está en sí usa tecnología, sino en cómo la usa. Un Estado respetuoso de los derechos no solo cobra impuestos. También explica. Y en la era de los algoritmos, esa explicación ya no es opcional.




