Error Detective
Detectar y diagnosticar errores en tus sistemas
Los errores de producción son difíciles de rastrear en sistemas distribuidos. Esta habilidad analiza logs, correlaciona errores e identifica las causas raíz para acelerar la depuración.
Descargar el ZIP de la skill
Subir en Claude
Ve a Configuración → Capacidades → Skills → Subir skill
Activa y empieza a usar
Pruébalo
Usando "Error Detective". Archivo de log con errores NullPointerException repetidos
Resultado esperado:
Se extrajeron 47 ocurrencias de NullPointerException entre las 14:32-14:45 UTC. Frecuencia máxima: 12 errores/minuto a las 14:38. Todos los errores se originan del método UserService.getUser(). Correlación: los errores comenzaron 2 minutos después del despliegue v2.3.1.
Usando "Error Detective". Stack trace de timeout del servicio de pagos
Resultado esperado:
Causa raíz: agotamiento del pool de conexiones de base de datos. Evidencia: Timeout en ConnectionPool.getConnection (línea 142), precedido por más de 200 solicitudes pendientes. Corrección: aumentar el tamaño del pool de 10 a 50 conexiones y agregar un circuit breaker.
Auditoría de seguridad
SeguroThis is a prompt-only skill with no executable code, network access, or filesystem operations. Static analysis scanned 0 files and detected no security patterns. The skill provides guidance for log analysis and error investigation without any attack vectors.
Puntuación de calidad
Lo que puedes crear
Investigación de Incidentes en Producción
Analizar los logs de error de una caída en producción para identificar la causa raíz y la línea temporal de fallos entre microservicios.
Depuración de Fallos Intermitentes
Correlacionar errores esporádicos entre logs de aplicación para encontrar patrones y condiciones de activación que causan bugs intermitentes.
Análisis Post-Mortem
Revisar datos históricos de errores después de un incidente para entender las cadenas de fallo y recomendar estrategias de prevención.
Prueba estos prompts
Analiza este fragmento de log y extrae todos los mensajes de error con sus marcas de tiempo. Agrupa errores similares e identifica el tipo de error más frecuente.
Examina este stack trace e identifica la causa raíz del fallo. Explica qué ruta de código activó el error y sugiere correcciones.
Tengo logs de tres microservicios durante una caída. Correlaciona los errores por marca de tiempo e identifica cuál servicio falló primero y causó la cascada.
Genera consultas de Elasticsearch y Splunk para detectar este patrón de error específico en producción. Incluye umbrales de alerta para picos en la tasa de errores.
Mejores prácticas
- Siempre incluye marcas de tiempo y IDs de correlación al proporcionar muestras de log para análisis
- Comparte logs de todos los servicios afectados para permitir una correlación precisa entre sistemas
- Proporciona contexto sobre despliegues o cambios de configuración recientes que puedan estar relacionados con los errores
Evitar
- No compartas datos sensibles como claves API, contraseñas o información personal en los logs
- Evites analizar mensajes de error aislados sin el contexto del log circundante
- No asumas que el primer error visible es la causa raíz - rastrea hacia atrás en la cadena