المهارات llm-app-patterns
📦

llm-app-patterns

آمن

Construir Aplicações LLM de Produção

Construir aplicações LLM requer navegar por decisões arquiteturais complexas. Esta skill fornece padrões testados em batalha para pipelines RAG, sistemas de agentes e operações de produção.

يدعم: Claude Codex Code(CC)
🥉 73 برونزي
1

تنزيل ZIP المهارة

2

رفع في Claude

اذهب إلى Settings → Capabilities → Skills → Upload skill

3

فعّل وابدأ الاستخدام

اختبرها

استخدام "llm-app-patterns". User asks: What is the company's refund policy?

النتيجة المتوقعة:

  • Retrieves relevant policy documents from vector database
  • Generates answer grounded in retrieved context with source citations
  • Returns response with confidence score and document references

استخدام "llm-app-patterns". User asks: Plan a research project on climate change impacts

النتيجة المتوقعة:

  • Creates plan with steps: gather data, analyze trends, identify sources, draft report
  • Executes each step sequentially with tool calls
  • Synthesizes findings into comprehensive research outline

التدقيق الأمني

آمن
v1 • 2/25/2026

This skill is a documentation file containing educational content about LLM application patterns. All static analysis findings are false positives caused by markdown formatting. The backticks flagged are code block delimiters and ASCII art borders, not shell command execution. URLs are documentation references, not active network calls. Code examples like hashlib.sha256 are illustrative and use secure algorithms. No executable code or security risks detected.

1
الملفات التي تم فحصها
763
الأسطر التي تم تحليلها
0
النتائج
1
إجمالي عمليات التدقيق
لا توجد مشكلات أمنية
تم تدقيقه بواسطة: claude

درجة الجودة

38
الهندسة المعمارية
100
قابلية الصيانة
87
المحتوى
50
المجتمع
100
الأمان
83
الامتثال للمواصفات

ماذا يمكنك بناءه

Base de Conhecimento RAG

Construa um sistema de perguntas e respostas baseado na sua documentação usando busca híbrida e compressão contextual.

Automação de Tarefas com Agentes

Crie agentes multi-etapa que podem buscar, calcular e sintetizar informações usando os padrões ReAct ou Plan-and-Execute.

Monitoramento de Produção LLM

Implemente observabilidade para aplicações LLM com rastreamento de métricas, tracing distribuído e frameworks de avaliação.

جرّب هذه الموجهات

Prompt RAG Básico
Answer the user's question based ONLY on the following context. If the context doesn't contain enough information, say you don't have enough information.

Context:
{context}

Question: {question}

Answer:
Prompt de Agente ReAct
You are an AI assistant that can use tools to answer questions.

Available tools:
{tools_description}

Use this format:
Thought: [your reasoning about what to do next]
Action: [tool_name(arguments)]
Observation: [tool result]
... (repeat as needed)
Thought: I have enough information to answer
Final Answer: [your response]

Question: {question}
Prompt Few-Shot com Exemplos
Input: {example1_input}
Output: {example1_output}

Input: {example2_input}
Output: {example2_output}

Input: {user_input}
Output:
Cadeia de Prompts para Pesquisa
Step 1 (Research): Research the topic: {input}
Step 2 (Analyze): Analyze these findings: {research}
Step 3 (Summarize): Summarize this analysis in 3 bullet points: {analysis}

أفضل الممارسات

  • Use busca híbrida combinando correspondência semântica e por palavras-chave para melhor precisão de recuperação
  • Implemente caching para prompts determinísticos para reduzir latência e custos
  • Acompanhe métricas chave como latência, uso de tokens e satisfação do usuário para melhoria contínua

تجنب

  • Usar chunking de tamanho fixo sem considerar a estrutura do documento, o que quebra o contexto
  • Pular avaliação e monitoramento, tornando impossível detectar degradação de qualidade
  • Não implementar estratégias de fallback quando provedores LLM primários experienciam interrupções

الأسئلة المتكررة

Qual é a diferença entre RAG e fine-tuning?
RAG recupera documentos relevantes no momento da consulta e os fornece como contexto, permitindo que o modelo acesse informações atualizadas sem retreinamento. Fine-tuning ajusta os pesos do modelo em dados de treinamento, o que é melhor para aprender estilo ou formato, mas não pode adicionar novos conhecimentos após o treinamento.
Como escolho entre diferentes arquiteturas de agentes?
Use ReAct para raciocínio interativo multi-etapa com uso de ferramentas. Use function calling para integrações de API estruturadas. Use Plan-and-Execute para tarefas complexas que requerem planejamento prévio. Use sistemas multi-agentes quando expertise especializada é necessária para diferentes subtarefas.
Qual banco de dados vetorial devo usar para produção?
Para serviço gerenciado com alta escala, use Pinecone. Para self-hosted com GraphQL, use Weaviate. para infraestrutura PostgreSQL existente, use pgvector. Para prototipagem, use ChromaDB por simplicidade.
Como posso reduzir custos de API de LLM?
Implemente caching semântico para consultas similares, use modelos menores para tarefas simples, otimize o comprimento do prompt, defina temperatura apropriada (0 para respostas cacheáveis) e use modelos de fallback quando o principal está limitado por taxa.
Que métricas devo acompanhar para aplicações LLM?
Acompanhe métricas de performance (latência, tokens por segundo), métricas de qualidade (satisfação do usuário, taxa de conclusão de tarefas), métricas de custo (custo por requisição, taxa de cache hit) e métricas de confiabilidade (taxa de erro, taxa de timeout).
Como lidar com alucinações em sistemas RAG?
Instrua o modelo a dizer 'eu não sei' quando o contexto é insuficiente, use pontuação de groundedness na avaliação, implemente verificações de qualidade de recuperação e considere adicionar uma etapa de verificação onde o modelo cita fontes para afirmações.

تفاصيل المطور

المؤلف

sickn33

الترخيص

MIT

مرجع

main

بنية الملفات

📄 SKILL.md