📦

langfuse

آمن 🌐 الوصول إلى الشبكة🔑 متغيرات البيئة

Adicione Observabilidade e Rastreamento LLM às Suas Aplicações de IA

Depure e monitore suas aplicações LLM com rastreamento e avaliação abrangentes. O Langfuse fornece observabilidade open-source para rastrear custos, latência e qualidade em seus fluxos de trabalho de IA.

يدعم: Claude Codex Code(CC)
🥉 75 برونزي
1

تنزيل ZIP المهارة

2

رفع في Claude

اذهب إلى Settings → Capabilities → Skills → Upload skill

3

فعّل وابدأ الاستخدام

اختبرها

استخدام "langfuse". Usuário pede ajuda para rastrear uma aplicação de chat OpenAI com Langfuse

النتيجة المتوقعة:

  • Código de inicialização mostrando setup do cliente Langfuse com chaves de API e configuração de host
  • Criação de trace com campos user_id, session_id e metadata
  • Log de generation que captura mensagens de input, parâmetros do modelo e uso de tokens
  • Exemplo de pontuação de traces baseado em feedback do usuário ou critérios automatizados

استخدام "langfuse". Usuário precisa de integração callback LangChain para seu pipeline RAG

النتيجة المتوقعة:

  • Setup do CallbackHandler com public key, secret key e rastreamento de sessão opcional
  • Configuração mostrando como passar handlers para chamadas chain.invoke()
  • Exemplo de configuração de callback handler global para rastreamento automático
  • Saída de trace de exemplo mostrando spans aninhados para chamadas de retriever e LLM

التدقيق الأمني

آمن
v1 • 2/25/2026

All 17 static analysis findings are false positives. The skill is documentation for Langfuse, an open-source LLM observability platform. External command detections are Python code examples, not shell execution. Network URLs are legitimate API endpoints. API key references are placeholder examples in documentation.

1
الملفات التي تم فحصها
243
الأسطر التي تم تحليلها
2
النتائج
1
إجمالي عمليات التدقيق

عوامل الخطر

🌐 الوصول إلى الشبكة (2)
🔑 متغيرات البيئة (2)
تم تدقيقه بواسطة: claude

درجة الجودة

38
الهندسة المعمارية
100
قابلية الصيانة
87
المحتوى
50
المجتمع
100
الأمان
100
الامتثال للمواصفات

ماذا يمكنك بناءه

Monitoramento de Aplicações LLM em Produção

Rastreie e depure aplicações de IA ao vivo com visibilidade completa de traces. Monitore custos de tokens, latência de resposta e taxas de erro em sessões de usuário.

Desenvolvimento e Teste de Prompts

Versione prompts, compare saídas entre iterações e execute testes A/B. Use datasets para avaliar sistematicamente mudanças de prompts antes da implantação.

Otimização de Custos e Desempenho de IA

Analise padrões de uso de tokens, identifique operações caras e otimize seleção de modelos. Configure alertas para anomalias de custo e degradação de desempenho.

جرّب هذه الموجهات

Configuração Básica de Rastreamento
Ajude-me a configurar rastreamento Langfuse para minha aplicação OpenAI. Preciso rastrear chat completions com user IDs e session IDs. Mostre-me o código Python para inicializar o Langfuse e envolver minhas chamadas OpenAI existentes.
Integração LangChain
Tenho uma aplicação LangChain com chains e agents customizados. Guie-me na adição de Langfuse callback handlers para rastrear todas as execuções de chain, incluindo chamadas aninhadas e uso de ferramentas.
Versionamento e Comparação de Prompts
Quero gerenciar múltiplas versões dos meus system prompts no Langfuse e comparar seu desempenho. Mostre-me como criar prompts no Langfuse, recuperá-los no código e analisar quais versões performam melhor.
Pipeline de Avaliação Customizado
Ajude-me a construir um pipeline de avaliação que pontua minhas saídas LLM baseado em relevância e precisão. Preciso criar datasets de teste, definir critérios de pontuação e executar avaliações em batch para comparar versões de modelo.

أفضل الممارسات

  • Sempre chame langfuse.flush() em ambientes serverless para garantir que traces sejam enviados antes da saída da função
  • Inclua user_id e session_id em todos os traces para habilitar depuração a nível de usuário e análises de sessão
  • Use nomes de trace e span significativos que reflitam lógica de negócio ao invés de nomes genéricos de função

تجنب

  • Não flushar traces em funções serverless, causando perda de dados quando a execução termina
  • Rastrear toda operação sem filtragem, criando ruído e overhead de desempenho
  • Falta de identificadores de usuário e sessão, limitando habilidade de depurar experiências de usuário específicas

الأسئلة المتكررة

O Langfuse é gratuito para usar?
O Langfuse oferece um tier gratuito para desenvolvimento e uso em pequena escala. Self-hosting é completamente gratuito e open-source. Cloud hosting possui planos pagos para volumes maiores e features adicionais.
O Langfuse funciona com modelos além de OpenAI?
Sim. O Langfuse suporta OpenAI, Anthropic Claude, LlamaIndex, LangChain e integrações customizadas. Você pode rastrear qualquer LLM usando a API de rastreamento manual com sua própria instrumentação.
Como lido com dados sensíveis em traces?
Use o recurso de masking de metadata para redigitar campos sensíveis antes de enviar ao Langfuse. Você também pode fazer self-host do Langfuse para manter todos os dados de trace dentro de sua infraestrutura.
Posso usar Langfuse com respostas em streaming?
Sim. O Langfuse lida automaticamente com streaming para integrações suportadas. Para rastreamento manual, logue a resposta completa após o stream terminar, ou use atualizações incrementais para streams de longa duração.
Como comparo desempenho de modelos entre diferentes providers?
Use datasets do Langfuse para executar os mesmos casos de teste em diferentes modelos. Taggue traces com nomes de modelo e use o dashboard para comparar latência, custo e pontuações de qualidade lado a lado.
O que acontece se o Langfuse estiver indisponível durante o rastreamento?
O SDK Langfuse faz batch de traces de forma assíncrona e retry em caso de falha. Sua aplicação continua normalmente mesmo se o Langfuse estiver temporariamente indisponível. Traces são enfileirados e enviados quando a conectividade é retomada.

تفاصيل المطور

المؤلف

sickn33

الترخيص

MIT

مرجع

main

بنية الملفات

📄 SKILL.md