Compétences context-optimization
📦

context-optimization

Sûr

Kontextfenster optimieren

Également disponible depuis: ChakshuGautam,muratcankoylan,Asmayaseen

Kontextfenster begrenzen, was KI-Modelle gleichzeitig verarbeiten können. Diese Skill bietet Techniken zur Maximierung der effektiven Kontextkapazität durch Komprimierung, Maskierung, KV-Cache-Optimierung und Partitionierung, wodurch die Kapazität Ihrer KI effektiv verdoppelt oder verdreifacht wird.

Prend en charge: Claude Codex Code(CC)
🥉 74 Bronze
1

Télécharger le ZIP du skill

2

Importer dans Claude

Allez dans Paramètres → Capacités → Skills → Importer un skill

3

Activez et commencez à utiliser

Tester

Utilisation de "context-optimization". Kontextauslastung bei 85%, Konversation wird langsam und kostspielig

Résultat attendu:

Komprimierung angewendet: 20 vorherige Nachrichten in 3 wichtige Entscheidungen zusammengefasst, Kontext um 60% reduziert. Beobachtungsmaskierung bei Tool-Ausgaben aus Runden 1-5 ausgelöst.

Utilisation de "context-optimization". Muss ein 50-Seiten-Dokument mit 32k Kontextfenster verarbeiten

Résultat attendu:

Dokument in 4 Abschnitte partitioniert. Jeden isolierten Sub-Agent zugewiesen. Ergebnisse aggregiert: Alle Abschnitte verarbeitet, finale Zusammenfassung passt in 8k Tokens.

Utilisation de "context-optimization". System-Prompt und Tool-Definitionen wiederholen sich in jeder Anfrage

Résultat attendu:

Kontext neu geordnet: System-Prompt zuerst, dann Tool-Definitionen, dann Konversation. 75% Cache-Trefferquote erreicht, Latenz um 40% reduziert.

Audit de sécurité

Sûr
v1 • 2/24/2026

All 16 static findings are false positives. The skill is a documentation/guide containing code examples for context optimization. Python code snippets were incorrectly flagged as shell commands, and text patterns like 'MD5' in '3+ turns' and skill names were misidentified as security issues. No actual security risks present.

1
Fichiers analysés
187
Lignes analysées
0
résultats
1
Total des audits
Aucun problème de sécurité trouvé
Audité par: claude

Score de qualité

38
Architecture
100
Maintenabilité
87
Contenu
50
Communauté
100
Sécurité
91
Conformité aux spécifications

Ce que vous pouvez construire

Langlaufende KI-Agents

Produktions-KI-Agents erstellen, die den Kontext über längere Sitzungen aufrechterhalten ohne Token-Limits zu erreichen

Großdokumentverarbeitung

Dokumente größer als das Kontextfenster durch Partitionierung und Ergebniserfassung verarbeiten

Kostenreduzierung

API-Kosten durch Minimierung der Token-Nutzung mittels Caching- und Komprimierungsstrategien senken

Essayez ces prompts

Basis-Kontextprüfung
Überprüfen Sie die aktuelle Kontextauslastung. Wenn sie 70% überschreitet, wenden Sie Komprimierung an, indem Sie ältere Nachrichten zusammenfassen und wichtige Entscheidungen beibehalten.
Tool-Ausgabe-Maskierung
Ersetzen Sie für Tool-Ausgaben aus vor 3+ Runden, die ihren Zweck erfüllt haben, diese durch kompakte Verweise, die nur wichtige Erkenntnisse enthalten.
Cache-freundliche Reihenfolge
Ordnen Sie Kontextelemente neu, um Cache-Treffer zu maximieren: System-Prompt und Tool-Definitionen zuerst, dann wiederverwendbare Inhalte, dann einzigartige Inhalte.
Sub-Agent-Partitionierung
Teilen Sie die aktuelle Aufgabe in unabhängige Teilaufgaben. Weisen Sie каждому einen separaten Sub-Agent mit isoliertem Kontext zu. Aggregieren Sie die Ergebnisse nach Abschluss.

Bonnes pratiques

  • Vor der Optimierung messen - Baseline-Token-Nutzung und Leistungsmetriken etablieren
  • Komprimierung vor Maskierung anwenden - Zusammenfassung bewahrt mehr Signal als Entfernung
  • Für Cache-Stabilität gestalten - konsistente Formatierung verwenden und dynamische Inhalte in Prompts vermeiden

Éviter

  • Aggressive Komprimierung - Komprimierung unter 50% verursacht erheblichen Qualitätsverlust
  • Kritische Beobachtungen maskieren - niemals Daten maskieren, die für aktuelle Reasoning benötigt werden
  • Überwachung ignorieren - Optimierungseffektivität verschlechtert sich ohne Messung über Zeit

Foire aux questions

Erhöht diese Skill tatsächlich das Kontextfenster?
Nein. Diese Skill optimiert, wie Sie den verfügbaren Kontext nutzen, indem er ihn durch Entfernen von Redundanz und Komprimierung von Daten größer erscheinen lässt.
Was ist die beste Optimierungsstrategie für konversationsintensive Aufgaben?
Komprimierung mit Zusammenfassung funktioniert am besten. Fassen Sie alte Konversationsrunden zusammen, während Sie wichtige Entscheidungen und Zusagen beibehalten.
Wie viel Token-Reduktion kann ich erwarten?
Komprimierung erreicht 50-70% Reduktion mit weniger als 5% Qualitätsverlust. Maskierung erreicht 60-80% Reduktion bei maskierten Beobachtungen.
Funktioniert Caching über verschiedene Konversationen?
Prefix-Caching funktioniert nur, wenn Prompts identische Präfixe haben. System-Prompts stabil halten, um Cache-Treffer zu maximieren.
Wann sollte ich Sub-Agent-Partitionierung verwenden?
Partitionieren Sie, wenn eine Aufgabe zu komplex für einen Kontext ist, oder wenn Teilaufgaben widersprüchliche Kontextanforderungen haben.
Wie erkenne ich, wann ich die Optimierung auslösen soll?
Überwachen Sie Token-Auslastung über 80%, Antwortqualitätsverlust oder zunehmende Latenz als primäre Auslöser.

Détails du développeur

Structure de fichiers

📄 SKILL.md