context-optimization
Kontext für längere Gespräche optimieren
也可从以下获取: sickn33,Asmayaseen,ChakshuGautam
Begrenzte Kontextfenster schränken komplexe Aufgaben ein und erhöhen die API-Kosten. Diese Technik bietet bewährte Methoden, um die effektive Kontextkapazität durch Komprimierung, Beobachtungsmaskierung, KV-Cache-Optimierung und Kontextpartitionierung zu verdoppeln oder zu verdreifachen.
下载技能 ZIP
在 Claude 中上传
前往 设置 → 功能 → 技能 → 上传技能
开启并开始使用
测试它
正在使用“context-optimization”。 Optimieren Sie diesen Gesprächskontext. Wir haben 85% unseres 100K Token-Limits verwendet und die Antwortqualität verschlechtert sich.
预期结果:
- Komprimierung wird ausgelöst: Zusammenfassung der 15 ältesten Gesprächs-Turns
- 8 Tool-Ausgaben aus früheren Turns werden maskiert
- Beibehalten: System-Prompt, aktueller Aufgabenstatus, aktuelle Entscheidungen
- Ergebnis: Kontext von 85K auf 32K Tokens reduziert (62% Reduktion)
- Geschätzter Qualitätseffekt: Weniger als 3% Verschlechterung
正在使用“context-optimization”。 Entwerfen Sie einen cache-freundlichen System-Prompt für einen Programmierassistenten, der dynamische Elemente wie das aktuelle Datum enthält.
预期结果:
- Statische und dynamische Inhalte in der Prompt-Struktur trennen
- Rollenbeschreibung und Anweisungen cache-bar halten
- Datum/Zeit zur Variablensubstitution zur Laufzeit verschieben
- Ergebnis: Cache-Trefferrate von 45% auf 88% verbessert
- Prompt bleibt semantisch identisch mit dem Original
正在使用“context-optimization”。 Wir haben 12 Tool-Aufrufe in unserem Gesprächsverlauf, jeweils mit ausführlichen JSON-Ausgaben. Wie reduzieren wir die Kontextnutzung?
预期结果:
- Tool-Ausgaben nach Alter und Relevanz analysieren
- 9 Tool-Ausgaben aus Sitzungen, die 3+ Turns zurückliegen, maskieren
- 3 neueste Tool-Ausgaben für aktives Reasoning beibehalten
- Jede maskierte Ausgabe durch 50-Zeichen-Referenz ersetzt
- Erwartete Token-Reduktion: 40-60% auf den Tool-Ausgabeanteil
安全审计
安全The static analyzer flagged 53 patterns across 4 files (1035 lines). After evaluation, ALL findings are FALSE POSITIVES. The 'Ruby/shell backtick execution' flags are markdown code fence delimiters. The 'weak cryptographic algorithm' flags are benign MD5 use for non-crypto ID generation. The 'system reconnaissance' flags describe standard monitoring patterns. No network calls, file system access, credential handling, or malicious patterns exist. This is purely documentation and Python utility functions for in-memory text processing.
风险因素
⚙️ 外部命令 (14)
质量评分
你能构建什么
Langlebige Agenten erstellen
Agentensysteme erstellen, die komplexe mehrstufige Aufgaben ohne Kontextüberlauf oder Qualitätsverlust bewältigen.
API-Kosten reduzieren
Token-Nutzung um 50-70% durch intelligente Komprimierung reduzieren bei gleichzeitiger Beibehaltung der Ausgabequalität.
Produktionssysteme skalieren
Kontextmanagement-Muster implementieren, die zuverlässig in Produktionsumgebungen mit vorhersagbarer Leistung funktionieren.
试试这些提示
Überprüfen Sie die aktuelle Kontextauslastung. Wenn sie 70% überschreitet, wenden Sie Komprimierung an, um ältere Nachrichten zusammenzufassen und gleichzeitig wichtige Entscheidungen und den aktuellen Aufgabenstatus zu erhalten.
Maskieren Sie Tool-Ausgaben aus Sitzungen, die 3 oder mehr Turns zurückliegen. Ersetzen Sie ausführliche Ausgaben durch kompakte Referenzen, die nur wichtige Metriken und Erkenntnisse enthalten.
Entwerfen Sie den System-Prompt für maximale KV-Cache-Stabilität. Ersetzen Sie dynamische Inhalte wie Zeitstempel durch stabile Platzhalter.
Partitionieren Sie diese komplexe Aufgabe über Sub-Agenten mit isolierten Kontexten. Jeder Sub-Agent bearbeitet eine Teilaufgabe, wobei die Ergebnisse auf Koordinator-Ebene zusammengeführt werden.
最佳实践
- Messen Sie die aktuelle Kontextnutzung vor der Optimierung, um Basis-Metriken zu etablieren und Optimierungsmöglichkeiten zu identifizieren
- Wenden Sie Komprimierung vor der Maskierung an, wenn beide Techniken benötigt werden, um maximale Informationsdichte zu erhalten
- Entwerfen Sie Prompts für Cache-Stabilität, indem Sie die Struktur konsistent halten und dynamische Inhalte in Variablen trennen
避免
- Komprimierung von System-Prompts oder kritischen Aufgabenstatusinformationen, die zu irreversiblen Informationsverlust führen würde
- Maskieren von Beobachtungen, die noch für aktives Reasoning im aktuellen Gesprächskontext benötigt werden
- Wichtige Informationen in der Mitte des Kontexts platzieren, wo die Aufmerksamkeitsverteilung am niedrigsten ist (Lost-in-Middle-Phänomen)
- Vorzeitige Optimierung, bevor Kontextlimits die Aufgabenleistung oder -qualität tatsächlich einschränken
常见问题
Welche KI-Modelle werden unterstützt?
Was sind die Token-Reduktionsziele?
Wie integriere ich dies mit meinem Code?
Sind meine Daten sicher?
Warum ist die Antwortqualität nach der Optimierung gesunken?
Wie verhält sich dies zum nativen Kontext von Claude?
开发者详情
许可证
MIT
引用
main
文件结构