📦

langfuse

آمن 🌐 الوصول إلى الشبكة🔑 متغيرات البيئة

Fügen Sie Ihren KI-Anwendungen LLM-Observability und Tracing hinzu

Debuggen und überwachen Sie Ihre LLM-Anwendungen mit umfassendem Tracing und Evaluation. Langfuse bietet Open-Source-Observability zur Verfolgung von Kosten, Latenz und Qualität in Ihren KI-Workflows.

يدعم: Claude Codex Code(CC)
🥉 75 برونزي
1

تنزيل ZIP المهارة

2

رفع في Claude

اذهب إلى Settings → Capabilities → Skills → Upload skill

3

فعّل وابدأ الاستخدام

اختبرها

استخدام "langfuse". Benutzer bittet um Hilfe beim Tracen einer OpenAI-Chat-Anwendung mit Langfuse

النتيجة المتوقعة:

  • Initialisierungscode, der die Langfuse-Client-Einrichtung mit API-Schlüsseln und Host-Konfiguration zeigt
  • Trace-Erstellung mit user_id-, session_id- und Metadaten-Feldern
  • Generation-Logging, das Eingabenachrichten, Modellparameter und Token-Nutzung erfasst
  • Beispiel für das Bewerten von Traces basierend auf Benutzerfeedback oder automatisierten Kriterien

استخدام "langfuse". Benutzer benötigt LangChain-Callback-Integration für seine RAG-Pipeline

النتيجة المتوقعة:

  • CallbackHandler-Einrichtung mit öffentlichem Schlüssel, geheimem Schlüssel und optionalem Sitzungs-Tracking
  • Konfiguration, die zeigt, wie Handler an chain.invoke()-Aufrufe übergeben werden
  • Beispiel für das Einrichten eines globalen Callback-Handlers für automatisches Tracing
  • Beispiel-Trace-Ausgabe, die verschachtelte Spans für Retriever- und LLM-Aufrufe zeigt

التدقيق الأمني

آمن
v1 • 2/25/2026

All 17 static analysis findings are false positives. The skill is documentation for Langfuse, an open-source LLM observability platform. External command detections are Python code examples, not shell execution. Network URLs are legitimate API endpoints. API key references are placeholder examples in documentation.

1
الملفات التي تم فحصها
243
الأسطر التي تم تحليلها
2
النتائج
1
إجمالي عمليات التدقيق

عوامل الخطر

🌐 الوصول إلى الشبكة (2)
🔑 متغيرات البيئة (2)
تم تدقيقه بواسطة: claude

درجة الجودة

38
الهندسة المعمارية
100
قابلية الصيانة
87
المحتوى
50
المجتمع
100
الأمان
100
الامتثال للمواصفات

ماذا يمكنك بناءه

Produktions-LLM-Anwendungsmonitoring

Verfolgen und debuggen Sie live KI-Anwendungen mit vollständiger Trace-Sichtbarkeit. Überwachen Sie Token-Kosten, Antwortlatenz und Fehlerraten über Benutzersitzungen hinweg.

Prompt-Entwicklung und -Testing

Versionieren Sie Prompts, vergleichen Sie Ausgaben über Iterationen hinweg und führen Sie A/B-Tests durch. Verwenden Sie Datensätze, um Prompt-Änderungen vor der Bereitstellung systematisch zu evaluieren.

KI-Kosten- und Leistungsoptimierung

Analysieren Sie Token-Nutzungsmuster, identifizieren Sie teure Operationen und optimieren Sie die Modellauswahl. Richten Sie Warnungen für Kostenanomalien und Leistungsverschlechterungen ein.

جرّب هذه الموجهات

Grundlegende Tracing-Einrichtung
Helfen Sie mir, Langfuse-Tracing für meine OpenAI-Anwendung einzurichten. Ich muss Chat-Completions mit Benutzer-IDs und Sitzungs-IDs verfolgen. Zeigen Sie mir den Python-Code, um Langfuse zu initialisieren und meine vorhandenen OpenAI-Aufrufe zu wrappen.
LangChain-Integration
Ich habe eine LangChain-Anwendung mit benutzerdefinierten Chains und Agenten. Führen Sie mich durch das Hinzufügen von Langfuse-Callback-Handlern, um alle Chain-Ausführungen zu tracen, einschließlich verschachtelter Aufrufe und Tool-Nutzung.
Prompt-Versionierung und -Vergleich
Ich möchte mehrere Versionen meiner System-Prompts in Langfuse verwalten und ihre Leistung vergleichen. Zeigen Sie mir, wie ich Prompts in Langfuse erstelle, im Code abrufe und analysiere, welche Versionen besser abschneiden.
Benutzerdefinierte Evaluations-Pipeline
Helfen Sie mir, eine Evaluations-Pipeline zu erstellen, die meine LLM-Ausgaben basierend auf Relevanz und Genauigkeit bewertet. Ich muss Testdatensätze erstellen, Bewertungskriterien definieren und Batch-Evaluationen durchführen, um Modellversionen zu vergleichen.

أفضل الممارسات

  • Rufen Sie immer langfuse.flush() in Serverless-Umgebungen auf, um sicherzustellen, dass Traces vor Funktionsexit gesendet werden
  • Fügen Sie user_id und session_id zu allen Traces hinzu, um Benutzerlevel-Debugging und Sitzungsanalysen zu ermöglichen
  • Verwenden Sie aussagekräftige Trace- und Span-Namen, die die Geschäftslogik widerspiegeln, anstatt generische Funktionsnamen

تجنب

  • Traces nicht in Serverless-Funktionen leeren (flush), was zu Datenverlust beim Beenden der Ausführung führt
  • Jede Operation ohne Filterung tracen, was Rauschen und Leistungsaufwand erzeugt
  • Fehlende Benutzer- und Sitzungsidentifikatoren, was die Fähigkeit einschränkt, bestimmte Benutzererfahrungen zu debuggen

الأسئلة المتكررة

Ist Langfuse kostenlos nutzbar?
Langfuse bietet eine kostenlose Stufe für Entwicklung und kleinere Nutzung. Self-hosting ist völlig kostenlos und Open-Source. Cloud-Hosting hat kostenpflichtige Pläne für höhere Volumen und zusätzliche Funktionen.
Funktioniert Langfuse mit anderen Modellen als OpenAI?
Ja. Langfuse unterstützt OpenAI, Anthropic Claude, LlamaIndex, LangChain und benutzerdefinierte Integrationen. Sie können jedes LLM tracen, indem Sie die manuelle Tracing-API mit Ihrer eigenen Instrumentalisierung verwenden.
Wie gehe ich mit sensiblen Daten in Traces um?
Verwenden Sie die Metadaten-Masking-Funktion, um sensible Felder zu schwärzen, bevor sie an Langfuse gesendet werden. Sie können Langfuse auch selbst hosten, um alle Trace-Daten in Ihrer Infrastruktur zu behalten.
Kann ich Langfuse mit Streaming-Antworten verwenden?
Ja. Langfuse verarbeitet Streaming automatisch für unterstützte Integrationen. Für manuelles Tracing loggen Sie die vollständige Antwort, nachdem der Stream beendet ist, oder verwenden Sie inkrementelle Updates für lang laufende Streams.
Wie vergleiche ich Modellleistung über verschiedene Anbieter hinweg?
Verwenden Sie Langfuse-Datensätze, um dieselben Testfälle mit verschiedenen Modellen auszuführen. Taggen Sie Traces mit Modellnamen und verwenden Sie das Dashboard, um Latenz, Kosten und Qualitätswerte nebeneinander zu vergleichen.
Was passiert, wenn Langfuse während des Tracings nicht verfügbar ist?
Das Langfuse-SDK stapelt Traces asynchron und wiederholt bei Fehlern. Ihre Anwendung läuft normal weiter, selbst wenn Langfuse vorübergehend nicht erreichbar ist. Traces werden in die Warteschlange gestellt und gesendet, wenn die Verbindung wiederhergestellt ist.

تفاصيل المطور

المؤلف

sickn33

الترخيص

MIT

مرجع

main

بنية الملفات

📄 SKILL.md