SHAP frente a ALE para interacciones entre funciones: comprensión de resultados conflictivos |  de Valerie Carey |  octubre de 2023

Los explicadores modelo requieren una interpretación reflexiva

Foto por Diogo Nunes en desempaquetar

En este artículo, comparo técnicas de explicabilidad de modelos para interacciones de características. En un giro sorprendente, dos herramientas comúnmente utilizadas, SHAP y ALE, producen resultados opuestos.

Probablemente no debería haberme sorprendido. Después de todo, las herramientas de explicabilidad miden respuestas específicas de distintas maneras. La interpretación requiere comprender las metodologías de prueba, las características de los datos y el contexto del problema. Sólo porque algo se llama explicador no significa que genere un explicación, si define una explicación como una comprensión humana de cómo funciona un modelo.

Esta publicación se centra en técnicas de explicabilidad para interacciones de características. Utilizo un conjunto de datos de proyectos común derivado de préstamos reales. [1]y un tipo de modo típico (un modelo de árbol potenciado). Incluso en esta situación cotidiana, las explicaciones requieren una interpretación reflexiva.

Si se pasan por alto los detalles de la metodología, las herramientas de explicabilidad pueden impedir la comprensión o incluso socavar los esfuerzos para garantizar la equidad del modelo.

A continuación, muestro curvas SHAP y ALE dispares y demuestro que el desacuerdo entre las técnicas surge de diferencias en las respuestas medidas y perturbaciones de características realizadas por las pruebas. Pero primero, presentaré algunos conceptos.

Las interacciones entre características ocurren cuando dos variables actúan en concierto, lo que resulta en un efecto que es diferente de la suma de sus contribuciones individuales. Por ejemplo, el impacto de una mala noche de sueño en la puntuación de un examen sería mayor al día siguiente que una semana después. En este caso, una característica que representa el tiempo interactuaría con una característica de calidad del sueño o la modificaría.

En un modelo lineal, una interacción se expresa como el producto de dos características. Los modelos de aprendizaje automático no lineal suelen contener numerosas interacciones. De hecho, Las interacciones son fundamentales para la lógica de los modelos avanzados de aprendizaje automático. sin embargo, muchas técnicas comunes de explicabilidad se centran en contribuciones de características aisladas. Los métodos para examinar las interacciones incluyen gráficos ALE de 2 vías, H de Friedman, gráficos de dependencia parcial y valores de interacción SHAP. [2]. Este blog explora…