Compétences context-degradation
📦

context-degradation

Sûr

Detectar Degradação de Contexto em LLMs

Également disponible depuis: muratcankoylan,ChakshuGautam,Asmayaseen

Modelos de linguagem exibem degradação previsível de desempenho à medida que o comprimento do contexto aumenta. Esta skill ajuda a diagnosticar padrões de lost-in-middle, poisoning, distraction e clash para construir sistemas de IA mais confiáveis.

Prend en charge: Claude Codex Code(CC)
⚠️ 68 Médiocre
1

Télécharger le ZIP du skill

2

Importer dans Claude

Allez dans Paramètres → Capacités → Skills → Importer un skill

3

Activez et commencez à utiliser

Tester

Utilisation de "context-degradation". Conversation has 60000 tokens. Agent started producing incorrect summaries after turn 20.

Résultat attendu:

Analysis: Context degradation detected. The lost-in-middle phenomenon is likely causing the agent to miss key information from the middle of context. Recommendation: Apply compaction to summarize earlier context, or restructure to place critical info at edges.

Utilisation de "context-degradation". User asks about code from turn 1, but agent refers to wrong implementation from turn 15.

Résultat attendu:

Analysis: Context clash detected. Multiple implementations exist in context with conflicting details. Recommendation: Use explicit versioning and mark conflicts for clarification before proceeding.

Audit de sécurité

Sûr
v1 • 2/24/2026

Static analysis flagged 20 potential issues including external_commands, network, and weak cryptographic algorithms. All findings are FALSE POSITIVES: the 'external_commands' detections are YAML token count examples with backtick formatting; 'network' is a legitimate GitHub URL in metadata; 'weak cryptographic algorithm' is a pattern matching error triggered by the word 'degradation'; 'system reconnaissance' falsely triggers on 'multi-source retrieval'. This skill is pure educational documentation about LLM context degradation with no executable code.

1
Fichiers analysés
239
Lignes analysées
4
résultats
1
Total des audits

Problèmes à risque élevé (4)

False Positive: External Commands Detection
Static scanner detected 'Ruby/shell backtick execution' at lines 169, 176, 179. These are YAML token count examples (turn_20: 60000 tokens) used as documentation, not actual shell commands.
False Positive: Network Security Detection
Static scanner detected 'Hardcoded URL' at line 4. This is a legitimate GitHub source URL in the skill metadata, not a security vulnerability.
False Positive: Weak Cryptographic Algorithm
Static scanner incorrectly flagged 'weak cryptographic algorithm' at 16 locations. Pattern matcher triggers on the word 'degradation' (appears as 'deg' in scanning patterns). No cryptographic code exists in this skill.
False Positive: System Reconnaissance
Static scanner flagged 'System reconnaissance' at line 92. Content discusses 'multi-source retrieval' in the context of information retrieval research, not system reconnaissance.
Audité par: claude

Score de qualité

38
Architecture
100
Maintenabilité
87
Contenu
50
Communauté
65
Sécurité
91
Conformité aux spécifications

Ce que vous pouvez construire

Debugar Falhas de Agentes

Quando um agente de IA produz saídas incorretas ou irrelevantes durante conversas longas, use esta skill para identificar se degradação de contexto é a causa raiz

Projetar Sistemas Resilientes

Arquitetar sistemas que lidam com contextos grandes de forma confiável aplicando a Abordagem dos Quatro Baldes e padrões arquiteturais descritos nesta skill

Avaliar Escolhas de Contexto

Tomar decisões informadas sobre engenharia de contexto para sistemas de produção entendendo thresholds de degradação e estratégias de mitigação

Essayez ces prompts

Verificação Básica de Degradação
Analyze this conversation for context degradation patterns. The conversation has grown to over 50000 tokens. Look for signs of lost-in-middle, poisoning, distraction, or clash.
Diagnóstico de Lost-in-Middle
Review the attached context and identify if critical information is buried in the middle. The task requires information from the middle section but outputs are incorrect.
Recuperação de Context Poisoning
Analyze this context for signs of poisoning. Symptoms include degraded output quality, tool misalignment, and persistent hallucinations despite corrections. What steps can recover?
Seleção de Padrão Arquitetural
Given a system that processes 200K+ token contexts with multiple independent tasks, recommend which Four-Bucket strategies (Write, Select, Compress, Isolate) to apply and why.

Bonnes pratiques

  • Coloque informações críticas no início ou fim do contexto onde a atenção é maior
  • Monitore comprimento de contexto e correlação de desempenho durante desenvolvimento
  • Implemente triggers de compaction antes da degradação se tornar severa

Éviter

  • Assumir que contexto mais longo sempre melhora desempenho
  • Carregar todos os documentos recuperados sem filtragem de relevância
  • Permitir que contexto cresça indefinidamente sem segmentação

Foire aux questions

O que é o fenômeno de lost-in-middle?
O fenômeno de lost-in-middle é quando modelos demonstram curvas de atenção em formato de U. Informações no início e fim do contexto recebem atenção confiável, enquanto informações no meio sofrem redução dramática na precisão de recall.
Como ocorre o context poisoning?
Context poisoning ocorre quando alucinações, erros ou informações incorretas entram no contexto e se compound através de referência repetida. Uma vez envenenado, o contexto cria loops de feedback que reforçam crenças incorretas.
O que é a Abordagem dos Quatro Baldes?
A Abordagem dos Quatro Baldes inclui: Write (salvar contexto fora da janela), Select (puxar contexto relevante através de retrieval), Compress (reduzir tokens através de sumarização) e Isolate (dividir contexto entre sub-agentes).
Janelas de contexto maiores sempre ajudam?
Não. Contextos maiores podem criar novos problemas incluindo curvas de degradação de desempenho, aumentos desproporcionais de custo e issues de gargalo cognitivo onde modelos lutam para manter qualidade em muitas tarefas.
Como sei se meu contexto está envenenado?
Observe sintomas incluindo qualidade de saída degradada em tarefas quePreviously succeeded, tool misalignment onde agentes chamam ferramentas erradas e alucinações que persistem apesar de tentativas de correção.
Quais modelos lidam melhor com contexto longo?
Segundo benchmarks, Claude Opus 4.5 mostra degradação por volta de 100K tokens, GPT-5.2 (thinking mode) por volta de 64K e Gemini 3 Pro por volta de 500K. No entanto, benchmarks variam por tipo de tarefa.

Détails du développeur

Structure de fichiers

📄 SKILL.md