La Agencia Tributaria española ya utiliza herramientas de análisis forense apoyadas en inteligencia artificial para revisar grandes volúmenes de información digital en expedientes abiertos. El nombre que más ha salido a la luz en los últimos días es Pathfinder, pero conviene separar el titular llamativo de lo que realmente está acreditado: no hay pruebas públicas de que Hacienda sancione automáticamente con una IA, pero sí de que ha reforzado su capacidad para ordenar, filtrar y cruzar documentación electrónica obtenida en inspecciones y procedimientos judiciales.
La cuestión importa porque toca tres frentes a la vez. El primero es fiscal: más capacidad de análisis puede traducirse en inspecciones más rápidas y mejor dirigidas. El segundo es jurídico: el uso de este tipo de software convive con límites muy serios cuando entran en juego ordenadores y móviles de contribuyentes. El tercero es económico: España no está sola en esta tendencia. La IA se está convirtiendo en una herramienta habitual en las haciendas de los países avanzados para detectar fraude, priorizar riesgos y reducir el coste de supervisar millones de operaciones.
Qué es Pathfinder y qué está confirmado de su uso en España
La base oficial más sólida no está en un gran anuncio público de la AEAT, sino en la contratación y en la documentación técnica de su plataforma forense. La Agencia Tributaria ya explicó en una memoria justificativa de su plataforma de análisis que, en sus inspecciones, maneja documentación electrónica como correos, documentos ofimáticos o bases de datos, y que distingue entre unos 2.000 procedimientos administrativos al año, con unos 200 GB por caso, y unos 20 procedimientos judiciales, con alrededor de 5 TB por caso. Ese volumen ayuda a entender por qué la automatización y el análisis avanzado se han vuelto tan relevantes para la inspección.
Sobre Pathfinder en concreto, lo que se ha publicado es que la AEAT compró 500 licencias de Cellebrite Pathfinder para las unidades de la Inspección Tributaria especializadas en la captura y análisis de información de obligados tributarios con expedientes administrativos o judiciales abiertos. Esa identificación del producto, el número de licencias y el importe aproximado de 326.000 euros con IVA han sido difundidos por medios como Infobae y The Objective a partir de expedientes y pliegos públicos. En paralelo, la propia contratación pública refleja compras y renovaciones de software forense para la plataforma de análisis de la AEAT, aunque no siempre con el nombre comercial del producto visible en la ficha resumida.
Eso obliga a introducir un matiz importante. Pathfinder no aparece, con la información pública que he podido verificar, como una “máquina sancionadora” autónoma. Lo que sí encaja con las fuentes es que se trata de una herramienta para filtrar y analizar datos complejos dentro de expedientes ya abiertos, no de un sistema que decida por sí solo una liquidación o una sanción. La diferencia no es menor: una cosa es asistir al inspector y otra sustituir el juicio administrativo.
Lo que cambia para Hacienda: menos lectura manual y más cruce de evidencias
Desde un punto de vista operativo, la ganancia es evidente. La AEAT ya venía buscando sistemas centralizados que hicieran más ágil el análisis técnico y fiscal de la información capturada, facilitando además la compartición de datos entre auditoría informática e inspección. En ese contexto, una solución como Pathfinder encaja como una capa adicional para encontrar relaciones, clasificar materiales y acelerar revisiones que antes podían consumir semanas o meses de trabajo manual.
Para un medio generalista y financiero, la lectura práctica es sencilla: Hacienda quiere reducir el coste temporal de revisar grandes masas de información digital. Cuando una inspección ya no depende solo de facturas en papel, sino también de correos, mensajes, imágenes, bases de datos y exportaciones de sistemas, la capacidad para separar lo relevante de lo accesorio se vuelve crítica. En términos presupuestarios, una herramienta así no se compra solo para “tener IA”, sino para intentar mejorar productividad inspectora en procedimientos cada vez más digitales.
Pero aquí aparece el principal punto de fricción. El Tribunal Supremo dejó claro en 2023 que la Administración tributaria no puede examinar la documentación contenida en un dispositivo electrónico vulnerando derechos fundamentales y que ese acceso exige un control judicial muy estricto en determinados supuestos. En otras palabras, el debate no es solo tecnológico. También lo es de garantías, proporcionalidad y límites legales. Cuanto más potente sea la herramienta de análisis, más importante resulta aclarar cómo se obtiene la información y bajo qué cobertura jurídica se examina.
España no es una excepción: la IA ya forma parte de otras haciendas
Aunque el caso español llame la atención por el uso de software forense, la tendencia internacional es mucho más amplia. La OCDE señala que 29 de sus 38 miembros ya declaran usar IA en la administración tributaria y que sus principales aplicaciones son la detección de evasión y fraude fiscal, la asistencia en la toma de decisiones y la mejora de servicios al contribuyente. También destaca que algunas administraciones ya aplican IA a datos no estructurados, incluidos textos manuscritos y publicaciones públicas en redes sociales.
Canadá es uno de los ejemplos más claros. La Canada Revenue Agency explica en sus planes oficiales que está reforzando el uso de machine learning e inteligencia artificial para detectar incumplimientos y actividades sospechosas, con medidas de prevención, verificación e incluso apoyo a investigaciones criminales cuando procede. En su plan 2026-2027 añade además que la IA y la automatización de procesos se usarán para transformar sistemas de datos y analítica en cumplimiento y recaudación, liberando recursos humanos para los casos complejos.
En Reino Unido, HMRC también ha reconocido que usa IA para mejorar su lucha contra el fraude y la evasión. En una respuesta parlamentaria oficial de diciembre de 2025 afirmó que la inteligencia artificial le ayudará a orientar mejor su acción contra el fraude fiscal y que la IA apoya algunos procesos, pero nunca sustituye la decisión humana ni la supervisión. En paralelo, documentos del Gobierno británico recogen que HMRC explora herramientas de IA para extraer el material más relevante en sus investigaciones.
Australia sigue una línea parecida. La Australian Taxation Office ha publicado una declaración de transparencia en la que explica que utiliza modelos de IA para ayudar a su personal a procesar grandes volúmenes de datos complejos, identificar riesgos y tomar decisiones mejor informadas. El mensaje vuelve a ser parecido al británico: la IA se presenta como apoyo al personal, no como sustituto automático de la función pública.
Lo que está en juego no es solo el fraude, sino el equilibrio entre eficacia y garantías
Desde una óptica financiera, el uso de IA por las haciendas tiene una lógica muy clara. Cuanto más digital es la economía, más difícil resulta supervisarla con herramientas pensadas para un mundo analógico. El incentivo para automatizar el análisis de riesgo es enorme: mejora la selección de expedientes, acelera comprobaciones y puede elevar la recaudación derivada de actuaciones mejor focalizadas. La propia OCDE lo presenta como una evolución natural de administraciones que ya dependen intensamente del dato.
El problema es que esa eficiencia no puede crecer a costa de diluir garantías. En España, el punto delicado no es solo que la AEAT use software avanzado, sino cómo se articula ese uso cuando entra en juego el acceso a información privada almacenada en dispositivos electrónicos. Ahí la cuestión deja de ser puramente fiscal y pasa a tocar privacidad, tutela judicial y trazabilidad de la prueba. Si un algoritmo ayuda a priorizar evidencias, el expediente sigue necesitando control humano y capacidad de explicación.
Por eso, la noticia importante no es que Hacienda “haya descubierto la IA”, sino que la inspección tributaria española ya está entrando de lleno en la misma transformación que se ve en Canadá, Reino Unido o Australia: más analítica, más automatización y más presión sobre el marco de derechos. La discusión de fondo ya no es si la IA se va a usar en la lucha contra el fraude fiscal, sino con qué límites, con qué transparencia y con qué nivel de supervisión humana.
Preguntas frecuentes
¿Hacienda sanciona automáticamente con Pathfinder?
No hay evidencia pública de que Pathfinder emita sanciones de forma autónoma. Lo acreditado es su uso como herramienta de análisis forense y cribado de información en expedientes abiertos, con intervención humana en la actuación inspectora.
¿Qué tipo de información puede analizar un software así?
Según la documentación y las descripciones publicadas, este tipo de plataformas trabaja con documentación electrónica capturada en inspecciones, como correos, bases de datos, documentos, imágenes y otros materiales digitales, para ordenar y localizar indicios relevantes.
¿Otras agencias tributarias del mundo también usan IA?
Sí. La OCDE señala que 29 de 38 administraciones tributarias de sus miembros ya usan IA, y países como Canadá, Reino Unido o Australia la aplican para cumplimiento, analítica de riesgos y lucha contra el fraude, siempre con distintos grados de supervisión humana.
¿Qué límites legales tiene Hacienda para acceder a ordenadores y móviles?
El Tribunal Supremo español estableció en 2023 que Hacienda no puede acceder al contenido de dispositivos electrónicos si eso vulnera derechos fundamentales y que esos accesos requieren control judicial estricto en determinados casos.









