Compétences context-fundamentals
📦

context-fundamentals

Sûr

Grundlagen der Kontexttechnik für KI-Agenten meistern

Également disponible depuis: ChakshuGautam,Asmayaseen,muratcankoylan

KI-Agenten haben Schwierigkeiten mit dem Kontextmanagement, was zu Leistungsabfall und verschwendeten Tokens führt. Dieses Skill vermittelt die Kernprinzipien der Kontexttechnik, einschließlich Aufmerksamkeitsbudget, progressive Offenlegung und Token-Optimierung.

Prend en charge: Claude Codex Code(CC)
🥉 74 Bronze
1

Télécharger le ZIP du skill

2

Importer dans Claude

Allez dans Paramètres → Capacités → Skills → Importer un skill

3

Activez et commencez à utiliser

Tester

Utilisation de "context-fundamentals". How should I organize my system prompt for a customer support agent?

Résultat attendu:

  • Use XML sections to create clear boundaries:
  • BACKGROUND_INFORMATION: Company details, product info, support tier
  • INSTRUCTIONS: Response tone, escalation criteria, personalization rules
  • TOOL_GUIDANCE: When to search knowledge base vs create tickets
  • OUTPUT_DESCRIPTION: Response format, required fields, follow-up questions

Utilisation de "context-fundamentals". My agent forgets instructions in long conversations. How can I fix this?

Résultat attendu:

  • This is context degradation from attention budget depletion. Solutions:
  • 1. Move critical instructions to the very beginning of context
  • 2. Implement history compaction at 70 percent context utilization
  • 3. Use periodic summarization to preserve key state in fewer tokens
  • 4. Design triggers to reload core instructions when context grows large

Audit de sécurité

Sûr
v1 • 2/24/2026

Static analysis flagged 34 patterns but all are false positives. The file contains only educational markdown documentation about context engineering with no executable code. External command patterns are markdown code examples, the URL is a source reference in metadata, and cryptographic patterns are false matches on words like attention and token.

1
Fichiers analysés
193
Lignes analysées
0
résultats
1
Total des audits
Aucun problème de sécurité trouvé
Audité par: claude

Score de qualité

38
Architecture
100
Maintenabilité
87
Contenu
50
Communauté
100
Sécurité
91
Conformité aux spécifications

Ce que vous pouvez construire

Entwurf der Agentenarchitektur

Nutze diese Grundlagen beim Entwurf neuer KI-Agentensysteme, um von Anfang an ein effizientes Kontextmanagement zu etablieren

Debugging von Agentenverhalten

Wende Kontextprinzipien an, um unerwartete Agentenantworten zu diagnostizieren, die durch Kontextüberlastung oder schlechte Informationsplatzierung verursacht werden

Team-Onboarding

Schule neue Teammitglieder in Kontexttechnik-Konzepten, bevor sie mit der Agentenentwicklung beginnen

Essayez ces prompts

Grundlegende Organisation von System-Prompts
Create a system prompt for a coding assistant using XML sections for background information, instructions, tool guidance, and output description. The agent should write Python code following PEP 8 with type hints.
Implementierung progressiver Offenlegung
Design a context loading strategy for a documentation assistant that starts with file paths and metadata, then loads full content only when the user asks about specific topics.
Optimierung des Kontextbudgets
Analyze this agent conversation log and identify opportunities to reduce context usage through observation masking, history compaction, and selective tool result retention while maintaining task performance.
Strategie der Aufmerksamkeitsposition
Restructure this 5000 token context to place the most critical instructions at attention-favored positions (beginning and end) while moving reference materials to the middle sections.

Bonnes pratiques

  • Behandle Kontext als endliche Ressource mit abnehmendem Ertrag, wenn die Token-Anzahl steigt
  • Platziere kritische Informationen an aufmerksamkeitsbegünstigten Positionen am Anfang und Ende des Kontexts
  • Implementiere Kompaktions-Trigger bei 70-80 Prozent Kontextauslastung, bevor Degradation einsetzt

Éviter

  • Alle verfügbaren Dokumentationen im Voraus laden, statt progressive Offenlegung zu nutzen
  • Annehmen, dass größere Kontextfenster Speicherprobleme lösen, ohne Aufmerksamkeitsdegradation zu berücksichtigen
  • Wichtige Anweisungen in der Mitte langer Kontexte platzieren, wo die Aufmerksamkeit am schwächsten ist

Foire aux questions

Was ist das Aufmerksamkeitsbudget in Sprachmodellen?
Das Aufmerksamkeitsbudget bezeichnet die begrenzte Rechenkapazität, die Modelle für die Verarbeitung von Token-Beziehungen haben. Mit zunehmender Kontextlänge muss das Modell seine Aufmerksamkeit auf mehr Token-Paare verteilen, was die Präzision für jede einzelne Beziehung reduziert und die Leistung bei komplexen Schlussfolgerungen verschlechtert.
Woran erkenne ich, wann ich Kontextkompaktion implementieren sollte?
Überwache die Kontextnutzung während der Entwicklung und setze Kompaktions-Trigger bei 70-80 Prozent des effektiven Kontextlimits deines Modells. Dies bietet einen Sicherheitspuffer, bevor Leistungsabfall das Agentenverhalten beeinflusst. Verfolge Metriken wie Befolgung von Anweisungen und Aufgabenabschlussraten, während der Kontext wächst.
Was ist progressive Offenlegung und wann sollte ich sie verwenden?
Progressive Offenlegung lädt Informationen nur bei Bedarf, statt alles vorab zu laden. Beginne mit leichtgewichtigen Verweisen wie Dateipfaden oder Zusammenfassungen und lade dann den vollständigen Inhalt dynamisch, wenn die Aufgabe es erfordert. So bleibt der anfängliche Kontext klein, während der Zugriff auf detaillierte Informationen bei Bedarf erhalten bleibt.
Bedeutet ein 200K-Kontextfenster, dass ich alles in den Kontext packen kann?
Nein. Obwohl Modelle technisch große Fenster unterstützen, nimmt die Leistung deutlich ab, bevor das Limit erreicht ist. Forschung zeigt eine reduzierte Präzision bei Informationsabruf und Schlussfolgerungen in langen Kontexten. Konzentriere dich auf Kontextqualität und Relevanz statt auf maximale Token-Anzahl.
Was sind die fünf Komponenten des Kontexts?
System-Prompts definieren Agentenidentität und Einschränkungen. Tool-Definitionen spezifizieren verfügbare Aktionen. Abgerufene Dokumente liefern Domänenwissen. Der Nachrichtenverlauf enthält die Unterhaltung. Tool-Ausgaben sind Ergebnisse von Agentenaktionen. Jede Komponente hat unterschiedliche Eigenschaften und Optimierungsstrategien.
Wie kann ich Token-Kosten reduzieren und gleichzeitig die Agentenleistung aufrechterhalten?
Nutze Beobachtungs-Masking, um irrelevante Tool-Ausgaben auszublenden, komprimiere den Gesprächsverlauf durch Zusammenfassung, implementiere selektive Beibehaltung, die nur relevante Ergebnisse behält, und wende progressive Offenlegung an, um unnötige Informationen nicht zu laden. Fokussiere dich auf Informativität statt Vollständigkeit.

Détails du développeur

Structure de fichiers

📄 SKILL.md