Error Detective
Détecter et diagnostiquer les erreurs dans vos systèmes
Les erreurs de production sont difficiles à tracer dans les systèmes distribués. Cette compétence analyse les journaux, corrèle les erreurs et identifie les causes profondes pour accélérer le débogage.
Télécharger le ZIP du skill
Importer dans Claude
Allez dans Paramètres → Capacités → Skills → Importer un skill
Activez et commencez à utiliser
Tester
Utilisation de "Error Detective". Fichier de journal avec des erreurs NullPointerException répétées
Résultat attendu:
47 occurrences de NullPointerException extraites entre 14:32 et 14:45 UTC. Fréquence maximale : 12 erreurs/minute à 14:38. Toutes les erreurs proviennent de la méthode UserService.getUser(). Corrélation : les erreurs ont commencé 2 minutes après le déploiement v2.3.1.
Utilisation de "Error Detective". Stack trace d'un timeout du service de paiement
Résultat attendu:
Cause profonde : épuisement du pool de connexions à la base de données. Preuve : timeout à ConnectionPool.getConnection (ligne 142), précédé de 200+ requêtes en attente. Correction : augmenter la taille du pool de 10 à 50 connexions et ajouter un disjoncteur.
Audit de sécurité
SûrThis is a prompt-only skill with no executable code, network access, or filesystem operations. Static analysis scanned 0 files and detected no security patterns. The skill provides guidance for log analysis and error investigation without any attack vectors.
Score de qualité
Ce que vous pouvez construire
Investigation d'incidents de production
Analyser les journaux d'erreurs d'une panne de production pour identifier la cause profonde et la chronologie des défaillances dans les microservices.
Débogage des défaillances intermittentes
Corréler les erreurs sporadiques dans les journaux d'application pour trouver des motifs et les conditions déclenchantes qui causent des bugs intermittents.
Analyse post-mortem
Examiner les données d'erreur historiques après un incident pour comprendre les chaînes de défaillance et recommander des stratégies de prévention.
Essayez ces prompts
Analysez cet extrait de journal et extrayez tous les messages d'erreur avec leurs horodatages. Regroupez les erreurs similaires et identifiez le type d'erreur le plus fréquent.
Examinez cette stack trace et identifiez la cause profonde de l'échec. Expliquez quel chemin de code a déclenché l'erreur et suggérez des corrections.
Je dispose de journaux provenant de trois microservices pendant une panne. Corrèlez les erreurs par horodatage et identifiez quel service a échoué en premier et a provoqué la cascade.
Générez des requêtes Elasticsearch et Splunk pour détecter ce motif d'erreur spécifique en production. Incluez des seuils d'alerte pour les pics de taux d'erreur.
Bonnes pratiques
- Toujours inclure les horodatages et les ID de corrélation lors de la fourniture d'échantillons de journaux pour analyse
- Partager les journaux de tous les services affectés pour permettre une corrélation inter-systèmes précise
- Fournir le contexte sur les déploiements récents ou les modifications de configuration qui pourraient être liés aux erreurs
Éviter
- Ne pas partager de données sensibles comme les clés API, les mots de passe ou les informations personnelles dans les journaux
- Éviter d'analyser des messages d'erreur isolés sans le contexte de journal environnant
- Ne pas supposer que la première erreur visible est la cause profonde - remonter la chaîne