Documentos de Académico
Documentos de Profesional
Documentos de Cultura
com
c 2020 para este artículo de sus autores. Uso permitido bajo Creative Com-
Derechos de autor©
En esta sección, exploramos tres temas: el primero se refiere a las taxonomías XAI
existentes, para catalogar las técnicas de vanguardia existentes que explican las redes
neuronales. Posteriormente, hablaremos de los tipos de tareas con las que se proponen
técnicas de explicación y su importancia para la evaluación por parte de humanos.
Finalmente, definimos los tipos de razonamiento y su relación con las explicaciones XAI.
Ha habido artículos que han categorizado métodos de explicación para redes neuronales.
Entre ellos, [24, 3, 12, 20] fueron muy útiles para sentar las bases de nuestra investigación:
describen una taxonomía integral de métodos de interpretabilidad relacionados con redes
neuronales profundas (DNN), que incluyen objetivos, propiedades y arquitectura, junto con
principios rectores. por su seguridad y confiabilidad. Además, otras investigaciones van más
allá del análisis de modelos de redes neuronales y nos ayudan a ampliar el conocimiento
sobre los métodos de explicación y los modelos utilizados [2, 11]. Sin embargo, hay dos
encuestas que también se centran en el impacto de las explicaciones en los usuarios [14,
22]. El primero proporciona una categorización entre objetivos de diseño para algoritmos
interpretables considerando diferentes grupos de usuarios XAI. Este último introduce un
marco conceptual que explica cómo los procesos de razonamiento humano informan las
técnicas XAI, que profundizaremos en las siguientes secciones.
Además de determinar qué XAI y qué técnicas utilizar, otro paso clave es identificar qué tipo
de tarea realizará el usuario. Comenzamos a estudiar los tipos de tareas a partir de los
artículos [7] y [4], siguiendo la distinción presente en este último y teniendo en cuenta dos
tipos de tareas, proxy y reales. En los estudios que utilizan tareas proxy, el usuario evalúa
principalmente qué tan bien percibe las explicaciones de la IA y lo que ha aprendido,
centrándose en la IA y en los objetivos reales que tienen los usuarios al interactuar con el
sistema. [16, 25, 21]. Por el contrario, los estudios que utilizan tareas reales evalúan la
cooperación entre los usuarios y la IA: el usuario tiene un papel principal en la decisión a
tomar y puede decidir o no utilizar los consejos de la IA para completar la tarea [8, 4, 23]. El
artículo en [4] también critica la metodología de evaluación actual de XAI basada en tareas
proxy, lo que demuestra que sus conclusiones pueden no reflejar el uso del sistema en
tareas reales. Dado este descubrimiento, consideramos tareas reales en las
transformaciones explicadas en la Sección 4.
Tabla 1.Artículos ilustrativos que explican los modelos de redes neuronales, divididos según
el tipo de razonamiento, red y tarea.
Deducción: dada una causa y una regla, deducir un efecto.Este tipo de razonamiento
comienza con reglas generales y examina las posibilidades de llegar a una conclusión lógica
específica. El razonamiento deductivo también se denomina lógica "de arriba hacia abajo".
porque normalmente comienza con una afirmación general y termina con una conclusión
más limitada y específica. El artículo [15] contiene un ejemplo de este razonamiento, como
representado en la Figura Causa : Las palabras de la IA en rojo que identifican una situación negativa o
Figura 1.Las palabras de la IA en rojo que identifican un sentimiento negativo o positivo son las
Causa ; el Regla está implícito (relacionado con el modelo mental del usuario respecto
su conocimiento semántico y no proporcionado por la IA); la elección del usuario sobre el sentimiento
predicción (ya sea positiva o negativa), es la Efecto [15].
Inducción: dada una causa y un efecto, induce una regla.Este tipo de razonamiento implica
sacar una conclusión general a partir de un conjunto de observaciones específicas. También se la
denomina lógica “de abajo hacia arriba” porque implica ampliar premisas específicas hasta
convertirlas en generalizaciones más amplias. El artículo [5] es un ejemplo de inductivo.
razonamiento, que se muestra en la Figura 2. Causa : Las explicaciones basadas en ejemplos de la IA.
Efecto : La IA no pudo reconocer el boceto del usuario. Regla : Cierto
Las propiedades de los bocetos representan un objeto (implícito).
Abducción: dado un efecto y una regla, abducir una causa.Este tipo de razonamiento generalmente
comienza con un conjunto incompleto de observaciones y continúa hasta la explicación más probable
posible. Un ejemplo de razonamiento abductivo es [21], como se describe en
mostrado en la Figura 3. Efecto : viene dado por la predicción del sentimiento de la IA. Regla :
El gráfico en los cuadros de explicación le da al usuario una intuición de los pesos que
usa la IA para calcular la valencia de la oración (implícita). Causa : El usuario
selecciona los pesos que considera mejores (tarea proxy).
Figura 2.Las explicaciones basadas en ejemplos mostradas por la IA identifican Causa ; el
Efecto es que la IA no reconoció el boceto que dibujó el usuario; entonces, el usuario necesita
para entender el Regla de los ejemplos de la IA. [5].
los datos de la tarea dada. Para pasar al razonamiento abductivo, la IA debería proporcionar una
Causa basado en los datos de la tarea. Después de eso, necesitamos hacer el Regla implícito
No confundir el razonamiento con el deductivo.
18. Selvaraju, RR, Cogswell, M., Das, A., Vedantam, R., Parikh, D., Batra, D.: Grad-cam:
explicaciones visuales de redes profundas mediante localización basada en gradientes.
Revista internacional de visión por computadora128(2), 336–359 (octubre de 2019).
https://doi.org/10.1007/s11263-019-01228-7, http://dx.doi.org/10.1007/
s11263-019-01228-7
19. Shrikumar, A., Greenside, P., Kundaje, A.: Aprendizaje de características importantes mediante la
propagación de diferencias de activación (04 de 2017)
20. Tjoa, E., Guan, C.: Una encuesta sobre inteligencia artificial explicable (xai): hacia la xai
médica (2019)
21. Tsang, M., Sun, Y., Ren, D., Liu, Y.: ¿Puedo confiar más en ti? explicaciones jerárquicas
independientes del modelo (2018)
22. Wang, D., Yang, Q., Abdul, A., Lim, B.: Diseño de IA explicable centrada en el usuario basada en
la teoría (05 de 2019). https://doi.org/10.1145/3290605.3300831
23. Yin, M., Vaughan, J., Wallach, H.: Comprender el efecto de la precisión en la
confianza en los modelos de aprendizaje automático. págs. 1 a 12 (04 de 2019).
https://doi.org/10.1145/3290605.3300509
24. Yu, R., Shi, L.: Una taxonomía basada en el usuario para la visualización del aprendizaje profundo.
Informática visual2 (09 2018). https://doi.org/10.1016/j.visinf.2018.09.001
25. Zhou, B., Sun, Y., Bau, D., Torralba, A.: Descomposición de bases interpretables para
explicación visual. En: Actas de la Conferencia Europea sobre Visión por Computador
(ECCV) (septiembre de 2018)