📊

shap

Seguro ⚙️ Comandos externos🌐 Acceso a red

Explicar predicciones de modelos con SHAP

También disponible en: davila7

Los modelos de aprendizaje automático suelen actuar como cajas negras. SHAP proporciona un marco unificado para explicar cualquier predicción de modelo calculando las contribuciones de las características utilizando los valores de Shapley de la teoría de juegos. Usa esta habilidad para visualizar la importancia de las características, depurar el comportamiento del modelo e implementar inteligencia artificial explicable.

Soporta: Claude Codex Code(CC)
📊 71 Adecuado
1

Descargar el ZIP de la skill

2

Subir en Claude

Ve a Configuración → Capacidades → Skills → Subir skill

3

Activa y empieza a usar

Pruébalo

Usando "shap". Explica las predicciones de mi modelo XGBoost para abandono de clientes

Resultado esperado:

  • Principales impulsores del abandono: Tipo de Contrato (0.25), Cargos Mensuales (0.18), Antigüedad (0.15)
  • Los clientes sin contratos anuales tienen un 25% más de probabilidad de abandonar
  • Los cargos mensuales más altos aumentan la probabilidad de abandono cuando la antigüedad es baja
  • Los clientes leales (36+ meses) tienen un 60% menor riesgo de abandono

Usando "shap". Por qué se rechazó esta solicitud de préstamo

Resultado esperado:

  • Factores clave que reducen la probabilidad de aprobación: Alta relación deuda-ingresos (-0.22), Corta historia laboral (-0.15), Baja ratio de utilización de crédito (-0.12)
  • Factores positivos: Ingreso estable (+0.08), Buen historial de pagos (+0.05)
  • Factores faltantes: Sin consultas de crédito recientes ayudó ligeramente (+0.03)

Auditoría de seguridad

Seguro
v4 • 1/17/2026

Documentation-only skill with no executable code. All 295 static findings are false positives: markdown code blocks flagged as shell backticks, 'SHAP' acronym flagged as SHA cryptographic algorithm, GitHub URL path component flagged as C2, and standard documentation URLs. This is a pure reference guide for the SHAP machine learning library.

6
Archivos escaneados
4,006
Líneas analizadas
2
hallazgos
4
Auditorías totales

Puntuación de calidad

45
Arquitectura
100
Mantenibilidad
87
Contenido
21
Comunidad
100
Seguridad
87
Cumplimiento de la especificación

Lo que puedes crear

Depurar el comportamiento del modelo

Identifica por qué los modelos cometen errores examinando los valores SHAP para muestras mal clasificadas y detectando fugas de datos.

Añadir explicaciones a APIs

Integra explicaciones SHAP en servicios de predicción en producción con atribución de características para cada predicción.

Validar la equidad del modelo

Verifica predicciones sesgadas entre grupos demográficos comparando valores SHAP para atributos protegidos.

Prueba estos prompts

Explicación básica de SHAP
Genera un gráfico SHAP beeswarm para mostrar la importancia de las características de mi modelo XGBoost entrenado en mi conjunto de datos tabular. Muestra las 15 características más importantes con sus distribuciones de valores.
Predicción individual
Explica por qué mi modelo predijo un resultado específico para una sola muestra. Genera un gráfico waterfall mostrando cómo cada característica contribuyó a la predicción.
Comparación de modelos
Compara la importancia de características entre mis modelos Random Forest y XGBoost usando SHAP. Muestra qué características se clasifican diferente entre los dos modelos.
Análisis de equidad
Analiza mi modelo para posibles sesgos entre grupos de género y edad. Compara valores SHAP para los atributos protegidos e identifica si existen proxies.

Mejores prácticas

  • Usa TreeExplainer para modelos basados en árboles en lugar de KernelExplainer para un cálculo más rápido
  • Comienza con gráficos globales (beeswarm, bar) para entender patrones generales antes de examinar predicciones individuales
  • Selecciona 50-1000 muestras de fondo representativas para un cálculo preciso de valores SHAP

Evitar

  • Usar KernelExplainer para modelos de árboles cuando TreeExplainer está disponible (mucho más lento)
  • Interpretar valores SHAP como relaciones causales sin validación del dominio
  • Ignorar el tipo de salida del modelo (log-odds vs probabilidad) al interpretar valores SHAP

Preguntas frecuentes

¿Qué es SHAP?
SHAP (SHapley Additive exPlanations) es un enfoque teórico de juegos para explicar predicciones de modelos calculando la contribución de cada característica utilizando valores de Shapley.
¿Qué explicador debo usar?
Usa TreeExplainer para XGBoost/LightGBM, DeepExplainer para redes neuronales, LinearExplainer para modelos lineales, y KernelExplainer solo como último recurso.
¿Por qué mis valores SHAP son lentos de calcular?
KernelExplainer es lento. Cambia a un explicador especializado para tu tipo de modelo o muestrea tus datos a 100-1000 filas para visualización.
¿Qué significan los valores SHAP positivos y negativos?
Los valores SHAP positivos impulsan las predicciones más alto; los valores negativos las impulsan más bajo. La magnitud muestra la fuerza del impacto de cada característica.
¿Puede SHAP detectar fugas de datos?
Sí. Una importancia inesperadamente alta de características en ciertas características puede indicar fugas de datos o características problemáticas que deberían eliminarse.
¿SHAP funciona con todos los tipos de modelos?
Sí. SHAP funciona con cualquier modelo a través de KernelExplainer, pero los explicadores especializados (Tree, Deep, Linear) son mucho más rápidos y recomendados.

Detalles del desarrollador

Estructura de archivos