Compétences langfuse
📦

langfuse

Sûr 🌐 Accès réseau🔑 Variables d’environnement

Ajoutez l'observabilité et le traçage LLM à vos applications IA

Déboguez et surveillez vos applications LLM avec un traçage complet et une évaluation. Langfuse fournit une observabilité open-source pour suivre les coûts, la latence et la qualité de vos flux de travail IA.

Prend en charge: Claude Codex Code(CC)
🥉 75 Bronze
1

Télécharger le ZIP du skill

2

Importer dans Claude

Allez dans Paramètres → Capacités → Skills → Importer un skill

3

Activez et commencez à utiliser

Tester

Utilisation de "langfuse". L'utilisateur demande de l'aide pour tracer une application de chat OpenAI avec Langfuse

Résultat attendu:

  • Code d'initialisation montrant la configuration du client Langfuse avec les clés API et la configuration de l'hôte
  • Création de trace avec les champs user_id, session_id et métadonnées
  • Journalisation de génération capturant les messages d'entrée, les paramètres du modèle et l'utilisation des jetons
  • Exemple de scoring des traces basé sur les critères de feedback utilisateur ou automatisés

Utilisation de "langfuse". L'utilisateur a besoin de l'intégration de callback LangChain pour son pipeline RAG

Résultat attendu:

  • Configuration du CallbackHandler avec la clé publique, la clé secrète et le suivi de session optionnel
  • Configuration montrant comment passer les gestionnaires aux appels chain.invoke()
  • Exemple de configuration du gestionnaire de callback global pour le traçage automatique
  • Exemple de sortie de trace montrant les spans imbriqués pour les appels retriever et LLM

Audit de sécurité

Sûr
v1 • 2/25/2026

All 17 static analysis findings are false positives. The skill is documentation for Langfuse, an open-source LLM observability platform. External command detections are Python code examples, not shell execution. Network URLs are legitimate API endpoints. API key references are placeholder examples in documentation.

1
Fichiers analysés
243
Lignes analysées
2
résultats
1
Total des audits

Facteurs de risque

🌐 Accès réseau (2)
🔑 Variables d’environnement (2)
Audité par: claude

Score de qualité

38
Architecture
100
Maintenabilité
87
Contenu
50
Communauté
100
Sécurité
100
Conformité aux spécifications

Ce que vous pouvez construire

Surveillance des applications LLM en production

Suivez et déboguez les applications IA en direct avec une visibilité complète des traces. Surveillez les coûts en jetons, la latence des réponses et les taux d'erreur sur les sessions utilisateur.

Développement et test de prompts

Versionnez les prompts, comparez les sorties entre les itérations et exécutez des tests A/B. Utilisez des ensembles de données pour évaluer systématiquement les modifications de prompts avant le déploiement.

Optimisation des coûts et des performances de l'IA

Analysez les modèles d'utilisation des jetons, identifiez les opérations coûteuses et optimisez la sélection des modèles. Configurez des alertes pour les anomalies de coûts et la dégradation des performances.

Essayez ces prompts

Configuration de base du traçage
Aidez-moi à configurer le traçage Langfuse pour mon application OpenAI. J'ai besoin de suivre les complétions de chat avec les IDs utilisateur et les IDs de session. Montrez-moi le code Python pour initialiser Langfuse et envelopper mes appels OpenAI existants.
Intégration LangChain
J'ai une application LangChain avec des chaînes et des agents personnalisés. Guidez-moi pour ajouter des gestionnaires de callback Langfuse pour tracer toutes les exécutions de chaînes, y compris les appels imbriqués et l'utilisation des outils.
Versioning et comparaison des prompts
Je veux gérer plusieurs versions de mes prompts système dans Langfuse et comparer leurs performances. Montrez-moi comment créer des prompts dans Langfuse, les récupérer dans le code et analyser quelles versions fonctionnent mieux.
Pipeline d'évaluation personnalisé
Aidez-moi à construire un pipeline d'évaluation qui note mes sorties LLM en fonction de la pertinence et de la précision. J'ai besoin de créer des ensembles de données de test, définir des critères de scoring et exécuter des évaluations par lots pour comparer les versions de modèles.

Bonnes pratiques

  • Appelez toujours langfuse.flush() dans les environnements serverless pour vous assurer que les traces sont envoyées avant la fin de la fonction
  • Incluez user_id et session_id sur toutes les traces pour permettre le débogage au niveau utilisateur et l'analytique de session
  • Utilisez des noms de traces et de spans significatifs qui reflètent la logique métier plutôt que des noms de fonctions génériques

Éviter

  • Ne pas flush les traces dans les fonctions serverless, causant une perte de données à la fin de l'exécution
  • Tracer chaque opération sans filtrage, créant du bruit et une surcharge de performances
  • Manquer d'identifiants utilisateur et de session, limitant la capacité de déboguer des expériences utilisateur spécifiques

Foire aux questions

Langfuse est-il gratuit ?
Langfuse offre un niveau gratuit pour le développement et l'utilisation à petite échelle. L'auto-hébergement est complètement gratuit et open-source. L'hébergement cloud propose des plans payants pour des volumes plus élevés et des fonctionnalités supplémentaires.
Langfuse fonctionne-t-il avec d'autres modèles qu'OpenAI ?
Oui. Langfuse prend en charge OpenAI, Anthropic Claude, LlamaIndex, LangChain et les intégrations personnalisées. Vous pouvez tracer n'importe quel LLM en utilisant l'API de traçage manuel avec votre propre instrumentation.
Comment gérer les données sensibles dans les traces ?
Utilisez la fonction de masquage des métadonnées pour rédiger les champs sensibles avant d'envoyer à Langfuse. Vous pouvez également auto-héberger Langfuse pour garder toutes les données de trace dans votre infrastructure.
Puis-je utiliser Langfuse avec des réponses en streaming ?
Oui. Langfuse gère automatiquement le streaming pour les intégrations prises en charge. Pour le traçage manuel, journalisez la réponse complète après la fin du flux, ou utilisez des mises à jour incrémentielles pour les flux de longue durée.
Comment comparer les performances des modèles entre différents fournisseurs ?
Utilisez les ensembles de données Langfuse pour exécuter les mêmes cas de test contre différents modèles. Taguez les traces avec les noms de modèles et utilisez le tableau de bord pour comparer la latence, le coût et les scores de qualité côte à côte.
Que se passe-t-il si Langfuse est indisponible pendant le traçage ?
Le SDK Langfuse met en lot les traces de manière asynchrone et réessaie en cas d'échec. Votre application continue normalement même si Langfuse est temporairement inaccessible. Les traces sont mises en file d'attente et envoyées lorsque la connectivité reprendra.

Détails du développeur

Structure de fichiers

📄 SKILL.md