Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Antonio Seco
Introducción
Hace dos años, publicamos un post en este blog del CIAT destacando la creciente
importancia de la XAI para el desarrollo de aplicaciones de Inteligencia Artificial (IA) en
algunas áreas de la sociedad, especialmente en las administraciones tributarias [Seco,
2021]. La propuesta de este post es actualizar en la generalidad lo sucedido en algunos
temas relacionados a la XAI y proveer referencias para estudios de mayor profundidad
por parte de los interesados.
La IA explicable o XAI trata del desarrollo de técnicas / modelos que hacen
comprensible el funcionamiento de un sistema de IA para una determinada audiencia.
Normalmente, los modelos de “caja negra” (black box), como las redes neuronales, el
modelado difuso (fuzzy logic) y el aumento de gradiente (gradient boosting)
proporcionan flexibilidad y una mayor precisión predictiva al tiempo que sacrifican la
interpretabilidad. Los modelos de “caja blanca” (white box) tienen métodos más
simples, como regresión lineal y árboles de decisión; sin embargo, suelen tener un
poder predictivo más débil [Loyola-González, 2019]. Adicionalmente, Myrianthous
(2023) indica que modelos más flexibles no garantizan mejores resultados, eso en
función del fenómeno llamado overfitting: cuando, por acompañaren demasiadamente
de cerca los ruidos y los errores de datos de entrenamiento, ya no logran generalizar
apropiadamente puntos de datos nuevos, desapercebidos.
La Figura 1 muestra la “explicación” ubicada en el flujo de implementación de
soluciones de IA:
Relevancia
Kuzniacki y Tylinski (2020) muestran que la mayor fuente de riesgos para integración
de IA al proceso legal en Europa son las Regulaciones Generales de Protección de
Datos-RGPD1 y la Convención Europea de Derechos Humanos-CEDH2. Los artículos
legales mencionados por los autores son los siguientes:
El derecho a una explicación (artículos 12, 14 y 15 de la RGPD): este derecho trata de
la transparencia de un modelo de IA. Si las autoridades tributarias toman una decisión
basada en un modelo de IA, deben poder explicar a los contribuyentes cómo se tomó
esta decisión, proporcionando información suficientemente completa para que los
mismos puedan actuar para impugnar la decisión, corregir inexactitudes o solicitar su
cancelación.
El derecho a la intervención humana (artículo 22 de la RGPD): El derecho a la
intervención humana es una herramienta legal para impugnar decisiones que se basan
en datos procesados a través de medios automáticos, como los modelos de IA. La idea
es que los contribuyentes deben tener derecho a impugnar una decisión automatizada
del modelo de IA y hacer que la revise una persona (generalmente un auditor fiscal).
Para que esto sea efectivo, el contribuyente debe primero saber cómo el modelo llegó a
la conclusión (regresando entonces al derecho a una explicación).
El derecho a un juicio justo (artículo 6 de la CEDH): este derecho abarca las garantías
mínimas de igualdad de medios y el derecho a la defensa. Significa que se debe permitir
a los contribuyentes revisar efectivamente la información en la que las autoridades
tributarias basan sus decisiones. Estos deben disponer de los medios para comprender
integralmente los factores legales relevantes utilizados para decidir sobre una
aplicación de la ley tributaria y la lógica detrás del modelo de IA que impulsó a las
autoridades a tomar una determinada decisión.
La prohibición de discriminación y la protección de la propiedad (CEDH): La
prohibición de la discriminación junto con la protección de la propiedad determina que
las autoridades tributarias dicten decisiones de manera no discriminatoria, es decir,
que no traten a los contribuyentes de manera diferente sin una justificación objetiva y
razonable. Este requisito busca enfrentar la tendencia que tienen determinados
algoritmos de IA a sobrellevar sesgos, como consecuencia del desequilibrio de los datos
que se utilizaron para entrenarlos.
1
Véase https://gdpr-info.eu/
2
Véase https://www.echr.coe.int/Documents/Convention_ENG.pdf
Considerando que la normativa europea sirve de base para que muchos países
desarrollen sus propias legislaciones, estas observaciones son importantes para la
discusión del tema.
En nivel mundial, la creciente relevancia de la XAI puede ser observada por (a) la
evolución del Índice de Popularidad de las Tendencias del Google3 para el término
“Explainable AI” en los últimos 10 años (Figura 2) y (b) la evolución de la cantidad de
artículos sobre interpretabilidad y explicabilidad de IA presentados a la conceptuada
Conferencia NEURIPS entre 2015 y 2021 (Figura 3):
Métodos de explicabilidad
Paralelamente con la IA, también prosperan los métodos que explican e interpretan
modelos de aprendizaje de máquina.
En Linardatos et al. (2021) se propone un mapa mental para la taxonomía de técnicas
de interpretabilidad de aprendizaje de máquina, basado en los objetivos para los
cuales estos métodos fueron creados y las formas a través de las cuales logran este
propósito (Figura 4).
3
Google Trends Popularity Index
Figura 4: Mapa mental de la taxonomía de técnicas de interpretabilidad para aprendizaje de máquina
(Fuente: Linardatos et al., 2021)
Figura 5: Escenarios de XAI para auditoría tributaria (fuente: Mehdiyev, N., et al., 2021)
Comentarios finales
Aunque la importancia del tema sea reconocida, el enfoque que deben adoptar las
administraciones tributarias con respecto al uso de XAI sigue siendo una cuestión en
abierto, motivando investigaciones académicas e institucionales. Asimismo, en evento
realizado en la Universidad de Amsterdam 4, Dr. Peter Fettke propuso cuatro directrices
para la comprehensión y diseño de XAI para sistemas tributarios:
4
Conference: “Towards eXplainable Artificial Intelligence (XAI) in Taxation: The Future of Good Tax
Governance”, Amsterdam Centre for Tax Law, Marzo 2023
Explorar mecanismos de presentación considerando las características del
proceso
Directriz 3: Generar y evaluar explicaciones
No hay una solución XAI que sirva para todos
La generación y evaluación de explicaciones debe abordarse de manera más
integral, considerando los modelos mentales de los usuarios, el contexto de la
situación y otros aspectos relevantes
Directriz 4: Desarrollar y evaluar un modelo de aprendizaje de máquina
Modelos interpretables deben ser inicialmente explorados, para verificar si son
capaces de generar resultados relevantes
La necesidad de un modelo de “caja negra” debe comprobarse en términos de
criterios de éxito técnico y del negocio.
5
Véase: https://www.ciat.org/ciat-y-microsoft-colaboran-en-la-transformacion-y-modernizacion-de-las-
administraciones-tributarias-de-america-latina/
Bibliografía
Dallanoce, F. 2022. “Explainable AI: A Comprehensive Review of the Main Methods”.
Medium January 4. Disponible en:
https://medium.com/mlearning-ai/explainable-ai-a-complete-summary-of-the-
main-methods-a28f9ab132f7
Fettke, P. 2023. “Explainable Artificial Intelligence (XAI) Supporting Public
Administration Processes. On the Potential of XAI in Tax Audit”. Conferencia en
la Universidad de Amsterdam / Amsterdam Centre for Tax Law. Marzo.
Kuzniacki, B. 2021. “Explainability in Artificial Intelligence & (Tax) Law”. International
Law and Global South. June, 3. Disponible en:
https://internationallawandtheglobalsouth.com/guest-post-explainability-in-ai-
and-international-law-with-specific-reference-to-tax-law/
Kuzniacki, B., Tylinski, K. 2020. “Legal Risks Stemming from the Integration of Artificial
Intelligence (AI) to Taxlaw”. Kluer International tax blog. Disponible en:
kluwertaxblog.com/2020/09/04/legal-risks-stemming-from-the-integration-of-
artificial-intelligence-ai-to-tax-law/
Linardatos, P., Papastefanopoulos, V., Kotsiantis, S. 2021. “Explainable AI: A Review of
Machine Learning Interpretability Methods”. Entropy 23, 18.
https://dx.doi.org/10.3390/e23010018
Loyola-González, O. 2019. "Black-Box vs. White-Box: Understanding Their Advantages
and Weaknesses From a Practical Point of View" in IEEE Access, vol. 7, pp.
154096-154113, 2019, https://doi.org/10.1109/ACCESS.2019.2949286
Mehdiyev, N., Houy, C., Gutermuth, O., Mayer, L., Fettke, P. 2021. “Explainable
Artificial Intelligence (XAI) Supporting Public Administration Processes – On the
Potential of XAI in Tax Audit Processes”. In: Ahlemann, F., Schütte, R., Stieglitz,
S. (eds) Innovation Through Information Systems. WI 2021. Lecture Notes in
Information Systems and Organisation, vol 46. Springer, Cham.
https://doi.org/10.1007/978-3-030-86790-4_28
Myrianthous, G. 2023. “Understanding The Accuracy-Interpretability Trade-Off”.
Towards Data Science. Oct, 6. Disponible en:
https://towardsdatascience.com/accuracy-interpretability-trade-off-
8d055ed2e445
Ngo, H., Sakhaee, E. 2022. “AI Index Report 2022: Chapter 3 – Technical AI Ethics”.
Stanford University
Seco, A. 2021. “Inteligencia Artificial Explicable (XAI) y su Importancia en la
Administración Tributaria”. Blog del CIAT 01 noviembre. Véase:
https://www.ciat.org/inteligencia-artificial-explicable-xai-y-su-importancia-en-
la-administracion-tributaria/