llm-application-dev-prompt-optimize
Otimize Prompts de LLM com Técnicas Avançadas de Engenharia
Transforme instruções básicas em prompts prontos para produção que melhoram a precisão em 40% e reduzem custos em 50-80%. Esta habilidade fornece orientação especializada em raciocínio chain-of-thought, padrões de IA constitucional e otimização específica para modelos como Claude, GPT e Gemini.
Baixar o ZIP da skill
Upload no Claude
Vá em Configurações → Capacidades → Skills → Upload skill
Ative e comece a usar
Testar
A utilizar "llm-application-dev-prompt-optimize". Optimize this prompt: 'Answer customer questions about refunds'
Resultado esperado:
Prompt otimizado com definição de papel, framework de diagnóstico, estrutura de entrega de solução, etapas de verificação, restrições e formato de saída JSON. Inclui seção de raciocínio chain-of-thought e checklist de autoavaliação para garantia de qualidade.
A utilizar "llm-application-dev-prompt-optimize". Make this prompt better for data analysis: 'Analyze the sales data'
Resultado esperado:
Framework abrangente de análise com cinco fases: validação de dados, análise de tendências com testes de significância estatística, análise de segmentos em múltiplas dimensões, template de insights com pontuação de confiança e recomendações priorizadas em formato YAML.
Auditoria de Segurança
SeguroStatic analysis detected 62 potential security issues in code examples within documentation files. All findings are false positives - the detected patterns (Ruby backticks, MD5 references, reconnaissance commands) appear exclusively within markdown code blocks that demonstrate prompt engineering techniques. The skill contains no executable code, performs no file operations, network requests, or command execution. It is a documentation-only skill providing guidance on prompt optimization best practices.
Pontuação de qualidade
O Que Você Pode Construir
Otimização de Prompts para Suporte ao Cliente
Transforme um prompt básico de suporte ao cliente em um sistema estruturado de respostas empáticas com frameworks de raciocínio diagnóstico, caminhos de escalonamento e restrições de qualidade para interações de suporte consistentes e profissionais.
Aprimoramento de Prompts para Análise de Dados
Eleve uma solicitação simples de análise de dados para um framework abrangente de análise com validação em fases, testes de significância estatística, análise de segmentos e relatórios executivos em formato YAML estruturado.
Melhorias de Segurança para Geração de Código
Aprimore prompts de geração de código com pensamento focado em segurança, requisitos de validação de entrada, princípios SOLID e checklists de autoavaliação para prevenir vulnerabilidades de injeção e garantir código pronto para produção.
Tente Estes Prompts
Analyze this step by step:
1. Identify the core problem
2. Break down into smaller components
3. Reason through each component carefully
4. Synthesize findings
5. Provide final answer with confidence level
Input: {your_input}Example 1:
Input: {simple_case}
Output: {correct_output}
Example 2:
Input: {edge_case}
Output: {correct_output}
Example 3:
Input: {error_case}
Wrong: {incorrect_output}
Correct: {correct_output}
Now apply to: {actual_input}{task_instructions}
Review your response against these principles:
1. ACCURACY: Verify all claims, flag uncertainties
2. SAFETY: Check for harm, bias, ethical issues
3. QUALITY: Ensure clarity, consistency, completeness
Initial Response: [Generate]
Self-Review: [Evaluate against principles]
Final Response: [Refined based on review]<context>
{background_information}
</context>
<task>
{clear_objective_with_constraints}
</task>
<thinking>
1. Understanding requirements...
2. Identifying components...
3. Planning approach...
</thinking>
<output_format>
{xml_structured_response_specification}
</output_format>Melhores Práticas
- Sempre defina papel, contexto, tarefa e formato de saída claros em seus prompts
- Use raciocínio chain-of-thought para problemas complexos de múltiplas etapas para melhorar a precisão
- Inclua 3-5 exemplos diversos cobrindo casos típicos, de borda e de erro para aprendizado few-shot
- Implemente loops de autocrítica com princípios constitucionais para aplicações críticas de segurança
Evitar
- Evite instruções vagas como 'analise isso' sem especificar framework, formato de saída ou critérios de sucesso
- Não use exemplos únicos sem cobertura de casos de borda - isso leva a comportamento frágil do prompt
- Nunca implante prompts sem testar contra entradas adversárias, consultas fora do escopo e casos de borda
- Evite prompts agnósticos ao modelo - otimize a estrutura para LLMs específicos (Claude prefere tags XML, GPT prefere cabeçalhos ##)
Perguntas Frequentes
O que é chain-of-thought prompting e quando devo usá-lo?
Quantos exemplos devo incluir no aprendizado few-shot?
O que é IA constitucional e por que isso importa?
Devo otimizar prompts de forma diferente para Claude vs GPT?
Como meço se minha otimização de prompt está funcionando?
Quais são erros comuns de otimização de prompts a evitar?
Detalhes do Desenvolvedor
Autor
sickn33Licença
MIT
Repositório
https://github.com/sickn33/antigravity-awesome-skills/tree/main/skills/llm-application-dev-prompt-optimizeReferência
main
Estrutura de arquivos