技能 context-optimization
📦

context-optimization

安全 ⚙️ 外部命令🌐 网络访问

Kontext für längere Gespräche optimieren

也可从以下获取: sickn33,Asmayaseen,ChakshuGautam

Begrenzte Kontextfenster schränken komplexe Aufgaben ein und erhöhen die API-Kosten. Diese Technik bietet bewährte Methoden, um die effektive Kontextkapazität durch Komprimierung, Beobachtungsmaskierung, KV-Cache-Optimierung und Kontextpartitionierung zu verdoppeln oder zu verdreifachen.

支持: Claude Codex Code(CC)
🥉 76 青铜
1

下载技能 ZIP

2

在 Claude 中上传

前往 设置 → 功能 → 技能 → 上传技能

3

开启并开始使用

测试它

正在使用“context-optimization”。 Optimieren Sie diesen Gesprächskontext. Wir haben 85% unseres 100K Token-Limits verwendet und die Antwortqualität verschlechtert sich.

预期结果:

  • Komprimierung wird ausgelöst: Zusammenfassung der 15 ältesten Gesprächs-Turns
  • 8 Tool-Ausgaben aus früheren Turns werden maskiert
  • Beibehalten: System-Prompt, aktueller Aufgabenstatus, aktuelle Entscheidungen
  • Ergebnis: Kontext von 85K auf 32K Tokens reduziert (62% Reduktion)
  • Geschätzter Qualitätseffekt: Weniger als 3% Verschlechterung

正在使用“context-optimization”。 Entwerfen Sie einen cache-freundlichen System-Prompt für einen Programmierassistenten, der dynamische Elemente wie das aktuelle Datum enthält.

预期结果:

  • Statische und dynamische Inhalte in der Prompt-Struktur trennen
  • Rollenbeschreibung und Anweisungen cache-bar halten
  • Datum/Zeit zur Variablensubstitution zur Laufzeit verschieben
  • Ergebnis: Cache-Trefferrate von 45% auf 88% verbessert
  • Prompt bleibt semantisch identisch mit dem Original

正在使用“context-optimization”。 Wir haben 12 Tool-Aufrufe in unserem Gesprächsverlauf, jeweils mit ausführlichen JSON-Ausgaben. Wie reduzieren wir die Kontextnutzung?

预期结果:

  • Tool-Ausgaben nach Alter und Relevanz analysieren
  • 9 Tool-Ausgaben aus Sitzungen, die 3+ Turns zurückliegen, maskieren
  • 3 neueste Tool-Ausgaben für aktives Reasoning beibehalten
  • Jede maskierte Ausgabe durch 50-Zeichen-Referenz ersetzt
  • Erwartete Token-Reduktion: 40-60% auf den Tool-Ausgabeanteil

安全审计

安全
v4 • 1/17/2026

The static analyzer flagged 53 patterns across 4 files (1035 lines). After evaluation, ALL findings are FALSE POSITIVES. The 'Ruby/shell backtick execution' flags are markdown code fence delimiters. The 'weak cryptographic algorithm' flags are benign MD5 use for non-crypto ID generation. The 'system reconnaissance' flags describe standard monitoring patterns. No network calls, file system access, credential handling, or malicious patterns exist. This is purely documentation and Python utility functions for in-memory text processing.

4
已扫描文件
1,035
分析行数
2
发现项
4
审计总数
审计者: claude 查看审计历史 →

质量评分

64
架构
100
可维护性
87
内容
21
社区
100
安全
91
规范符合性

你能构建什么

Langlebige Agenten erstellen

Agentensysteme erstellen, die komplexe mehrstufige Aufgaben ohne Kontextüberlauf oder Qualitätsverlust bewältigen.

API-Kosten reduzieren

Token-Nutzung um 50-70% durch intelligente Komprimierung reduzieren bei gleichzeitiger Beibehaltung der Ausgabequalität.

Produktionssysteme skalieren

Kontextmanagement-Muster implementieren, die zuverlässig in Produktionsumgebungen mit vorhersagbarer Leistung funktionieren.

试试这些提示

Kontextnutzung überprüfen
Überprüfen Sie die aktuelle Kontextauslastung. Wenn sie 70% überschreitet, wenden Sie Komprimierung an, um ältere Nachrichten zusammenzufassen und gleichzeitig wichtige Entscheidungen und den aktuellen Aufgabenstatus zu erhalten.
Tool-Ausgaben maskieren
Maskieren Sie Tool-Ausgaben aus Sitzungen, die 3 oder mehr Turns zurückliegen. Ersetzen Sie ausführliche Ausgaben durch kompakte Referenzen, die nur wichtige Metriken und Erkenntnisse enthalten.
Cache-freundliche Prompts entwerfen
Entwerfen Sie den System-Prompt für maximale KV-Cache-Stabilität. Ersetzen Sie dynamische Inhalte wie Zeitstempel durch stabile Platzhalter.
Komplexe Aufgaben partitionieren
Partitionieren Sie diese komplexe Aufgabe über Sub-Agenten mit isolierten Kontexten. Jeder Sub-Agent bearbeitet eine Teilaufgabe, wobei die Ergebnisse auf Koordinator-Ebene zusammengeführt werden.

最佳实践

  • Messen Sie die aktuelle Kontextnutzung vor der Optimierung, um Basis-Metriken zu etablieren und Optimierungsmöglichkeiten zu identifizieren
  • Wenden Sie Komprimierung vor der Maskierung an, wenn beide Techniken benötigt werden, um maximale Informationsdichte zu erhalten
  • Entwerfen Sie Prompts für Cache-Stabilität, indem Sie die Struktur konsistent halten und dynamische Inhalte in Variablen trennen

避免

  • Komprimierung von System-Prompts oder kritischen Aufgabenstatusinformationen, die zu irreversiblen Informationsverlust führen würde
  • Maskieren von Beobachtungen, die noch für aktives Reasoning im aktuellen Gesprächskontext benötigt werden
  • Wichtige Informationen in der Mitte des Kontexts platzieren, wo die Aufmerksamkeitsverteilung am niedrigsten ist (Lost-in-Middle-Phänomen)
  • Vorzeitige Optimierung, bevor Kontextlimits die Aufgabenleistung oder -qualität tatsächlich einschränken

常见问题

Welche KI-Modelle werden unterstützt?
Funktioniert mit jedem Modell, das Tool-Nutzung oder Function-Calling unterstützt, einschließlich Claude 3/4, GPT-4 und Codex-Modellen. Die Utility-Funktions sind modell-agnostisch.
Was sind die Token-Reduktionsziele?
Komprimierung erreicht 50-70% Token-Reduktion mit unter 5% Qualitätsverlust. Maskierung erreicht 60-80% Reduktion bei maskierten Beobachtungen.
Wie integriere ich dies mit meinem Code?
Importieren Sie die Komprimierungs-Utilitys und rufen Sie diese in Ihrer Nachrichtenbehandlungsschleife auf. Überwachen Sie die Token-Nutzung und lösen Sie die Optimierung aus, wenn Schwellenwerte überschritten werden.
Sind meine Daten sicher?
Ja. Alle Verarbeitungen erfolgen In-Memory innerhalb Ihrer Anwendung. Es werden keine Daten an externe Dienste gesendet oder extern gespeichert.
Warum ist die Antwortqualität nach der Optimierung gesunken?
Überprüfen Sie, ob kritische Informationen versehentlich komprimiert wurden. Stellen Sie sicher, dass System-Prompts, wichtige Entscheidungen und der aktuelle Aufgabenstatus während der Optimierung beibehalten werden.
Wie verhält sich dies zum nativen Kontext von Claude?
Claude hat größere Kontextfenster. Diese Technik hilft Ihnen, jedes Kontextfenster effizienter zu nutzen und Kosten unabhängig von der Fenstergröße zu reduzieren.