context-optimization
Otimizar Contexto para Conversas Mais Longas
也可从以下获取: sickn33,Asmayaseen,ChakshuGautam
Janelas de contexto limitadas restringem tarefas complexas e aumentam custos de API. Esta skill fornece técnicas comprovadas para dobrar ou triplicar a capacidade efetiva de contexto através de compactação, mascaramento de observações, otimização de KV-cache e particionamento de contexto.
下载技能 ZIP
在 Claude 中上传
前往 设置 → 功能 → 技能 → 上传技能
开启并开始使用
测试它
正在使用“context-optimization”。 Otimizar este contexto de conversa. Usamos 85% do nosso limite de 100K tokens e a qualidade da resposta está degradando.
预期结果:
- Disparando compactação: Resumindo 15 turnos mais antigos da conversa
- Mascarando 8 saídas de ferramentas de turnos anteriores
- Preservando: prompt do sistema, estado da tarefa atual, decisões recentes
- Resultado: Contexto reduzido de 85K para 32K tokens (62% de redução)
- Impacto estimado na qualidade: Menos de 3% de degradação
正在使用“context-optimization”。 Projetar um prompt de sistema amigável ao cache para um assistente de codificação que inclui elementos dinâmicos como data atual.
预期结果:
- Separando conteúdo estático e dinâmico na estrutura do prompt
- Mantendo definição de papel e instruções cacheáveis
- Movendo data/hora para substituição de variável em tempo de execução
- Resultado: Taxa de acerto de cache melhorada de 45% para 88%
- Prompt permanece semanticamente idêntico ao original
正在使用“context-optimization”。 Temos 12 chamadas de ferramentas no histórico da conversa, cada uma com saídas JSON verbosas. Como reduzimos o uso de contexto?
预期结果:
- Analisando saídas de ferramentas por idade e relevância
- Mascarando 9 saídas de ferramentas de 3+ turnos atrás
- Preservando 3 saídas de ferramentas mais recentes para raciocínio ativo
- Cada saída mascarada substituída por referência de 50 caracteres
- Redução esperada de tokens: 40-60% na porção de saída de ferramentas
安全审计
安全The static analyzer flagged 53 patterns across 4 files (1035 lines). After evaluation, ALL findings are FALSE POSITIVES. The 'Ruby/shell backtick execution' flags are markdown code fence delimiters. The 'weak cryptographic algorithm' flags are benign MD5 use for non-crypto ID generation. The 'system reconnaissance' flags describe standard monitoring patterns. No network calls, file system access, credential handling, or malicious patterns exist. This is purely documentation and Python utility functions for in-memory text processing.
风险因素
⚙️ 外部命令 (14)
质量评分
你能构建什么
Construir Agentes de Longa Duração
Crie sistemas de agentes que lidam com tarefas complexas de múltiplas etapas sem estouro de contexto ou degradação de qualidade.
Reduzir Custos de API
Reduza o uso de tokens em 50-70% através de compressão inteligente, preservando a qualidade da saída.
Escalar Sistemas de Produção
Implemente padrões de gerenciamento de contexto que funcionam de forma confiável em escala de produção com desempenho previsível.
试试这些提示
Verifique a utilização atual do contexto. Se exceder 70%, aplique compactação para resumir mensagens mais antigas, preservando decisões importantes e o estado da tarefa atual.
Mascarar saídas de ferramentas de 3 ou mais turnos atrás. Substituir saídas verbosas por referências compactas contendo apenas métricas-chave e descobertas.
Projetar o prompt do sistema para maximizar a estabilidade de KV-cache. Substituir conteúdo dinâmico como timestamps por placeholders estáveis.
Particionar esta tarefa complexa entre sub-agentes com contextos isolados. Cada sub-agente lida com uma subtarefa, com resultados agregados no nível do coordenador.
最佳实践
- Medir o uso atual de contexto antes de otimizar para estabelecer métricas de linha de base e identificar oportunidades de otimização
- Aplicar compactação antes de mascarar quando ambas as técnicas são necessárias para preservar a máxima densidade de informação
- Projetar prompts para estabilidade de cache mantendo a estrutura consistente e separando conteúdo dinâmico em variáveis
避免
- Compactar prompts do sistema ou informações críticas de estado de tarefa que causariam perda irreversível de informação
- Mascarar observações que ainda são necessárias para raciocínio ativo no contexto atual da conversa
- Colocar informações importantes no meio do contexto onde a distribuição de atenção é mais baixa (fenômeno perdido-no-meio)
- Otimizar prematuramente antes que os limites de contexto realmente restrinjam o desempenho ou qualidade da tarefa
常见问题
Quais modelos de IA são suportados?
Quais são as metas de redução de tokens?
Como integro isso com meu código?
Meus dados estão seguros?
Por que a qualidade da resposta caiu após a otimização?
Como isso se compara ao contexto nativo do Claude?
开发者详情
许可证
MIT
引用
main
文件结构