Compétences context-window-management
📦

context-window-management

Sûr

Meistern Sie das LLM-Kontextfenster-Management

Lange Gespräche und komplexe Prompts überfordern LLMs, was zu Informationsverlust und schlechten Antworten führt. Diese Fähigkeit vermittelt strategische Kontext-Kuration, Token-Optimierung und intelligente Zusammenfassung, um hochwertige KI-Interaktionen aufrechtzuerhalten.

Prend en charge: Claude Codex Code(CC)
🥉 74 Bronze
1

Télécharger le ZIP du skill

2

Importer dans Claude

Allez dans Paramètres → Capacités → Skills → Importer un skill

3

Activez et commencez à utiliser

Tester

Utilisation de "context-window-management". Ein 50-Nachrichten-Gespräch über die Implementierung eines neuen Authentifizierungssystems, das das Kontextfenster überschritten hat

Résultat attendu:

Kondensierte 200-Token-Zusammenfassung bewahrt: gewählte Authentifizierungsmethode (OAuth 2.0 mit JWT), Datenbank-Schema-Entscheidungen, Sicherheitsanforderungen, Implementierungszeitplan und drei ausstehende Integrationsaufgaben

Utilisation de "context-window-management". Forschungssitzung zur Analyse von Wettbewerbsprodukten mit umfangreichen Feature-Vergleichen

Résultat attendu:

Priorisierter Kontext mit Führungszusammenfassung am Anfang, detaillierten Vergleichstabellen in der Mitte und umsetzbaren Empfehlungen am Ende - Token-Anzahl um 40 Prozent reduziert bei gleichzeitiger Verbesserung der Klarheit

Audit de sécurité

Sûr
v1 • 2/24/2026

All static analyzer findings are false positives. The backtick characters at line 54 are Markdown inline code formatting for skill references, not shell command execution. No cryptographic algorithms exist in the document. This is a documentation-only skill providing educational guidance on context window management with no executable code, external commands, or network access.

1
Fichiers analysés
58
Lignes analysées
0
résultats
1
Total des audits
Aucun problème de sécurité trouvé
Audité par: claude

Score de qualité

38
Architecture
100
Maintenabilité
87
Contenu
50
Communauté
100
Sécurité
91
Conformité aux spécifications

Ce que vous pouvez construire

Assistent für technische Dokumentation in Langform

Aufrechterhaltung kohärenter multi-session Gespräche über komplexe Codebasen durch strategische Zusammenfassung früherer Diskussionen bei gleichzeitiger Bewahrung kritischer Architekturentscheidungen und Implementierungsdetails

Kundenbetreuungs-Gesprächsmanagement

Bearbeitung von Kundenanfragen mit hohem Volumen durch intelligentes Kürzen gelöster Probleme bei gleichzeitiger Beibehaltung des Kontexts über laufende Probleme, Kundenpräferenzen und Eskalationshistorie

Forschungs- und Analyse-Workflow

Synthese von Erkenntnissen aus langwierigen Forschungssitzungen durch Priorisierung wichtiger Erkenntnisse und Methodiknotizen bei gleichzeitiger Verwerfung von explorativen Sackgassen und redundanten Analysepfaden

Essayez ces prompts

Einfache Kontext-Zusammenfassung
Fassen Sie die wichtigsten Punkte aus unserem bisherigen Gespräch zusammen. Konzentrieren Sie sich auf getroffene Entscheidungen, offene Fragen und Aktionspunkte. Halten Sie die Zusammenfassung unter 500 Token und bewahren Sie alle kritischen Informationen auf, die für die Fortsetzung unserer Arbeit benötigt werden.
Strategisches Kontext-Kürzen
Überprüfen Sie unseren Gesprächsverlauf und identifizieren Sie Abschnitte, die sicher kondensiert oder entfernt werden können. Priorisieren Sie: aktuelle Austausche, ungelöste Themen und spezifische technische Details. Zusammenfassen oder entfernen: Brainstorming-Abweichungen, gelöste Probleme und allgemeine Diskussionen.
Serial-Position-Optimierung
Reorganisieren Sie den folgenden Kontext, um die wichtigsten Informationen am Anfang und am Ende zu platzieren. Gruppieren Sie zusammenhängende Themen zusammen. Verschieben Sie unterstützende Details in die mittleren Abschnitte. Dies optimiert für den Serial-Position-Effekt in der LLM-Aufmerksamkeit.
Multi-Session-Kontext-Übergabe
Erstellen Sie ein Kontext-Übergabedokument, das Folgendes erfasst: aktueller Projektstatus, wichtige Entscheidungen mit Begründung, ausstehende Aufgaben mit Prioritäten, relevante technische Spezifikationen und bekannte Einschränkungen. Formatieren für einfache Einfügung in eine neue Gesprächssitzung unter Beibehaltung voller Kontinuität.

Bonnes pratiques

  • Platzieren Sie kritische Anweisungen und Einschränkungen ganz am Anfang Ihres Kontexts, um sicherzustellen, dass sie maximale Aufmerksamkeit vom Modell erhalten
  • Fassen Sie Gesprächsverlauf regelmäßig basierend auf Wichtigkeit und Relevanz zusammen, nicht nur nach Alter - einige alte Kontexte bleiben wertvoller als aktuelle Austausche
  • Verwenden Sie explizite Abschnittsmarkierungen und strukturierte Formatierung, um dem Modell zu helfen, relevante Informationen effizient aus großen Kontexten zu parsen und abzurufen

Éviter

  • Das Anhängen des gesamten Gesprächsverlaufs ohne Kuratierung führt zu Kontext-Blähung, bei der wichtige Details in ausführlichen Inhalten mit geringem Wert verloren gehen
  • Die Annahme, dass das Modell alles gleich gut erinnert - Kontextposition ist erheblich wichtig mit degradierter Aufmerksamkeit für mittlere Abschnitte
  • Verwendung einheitlicher Verkürzung, die den neuesten Kontext abschneidet und kritische Informationen über den aktuellen Aufgabenstatus und ungelöste Probleme verliert

Foire aux questions

Was passiert, wenn ich das Kontextfenster-Limit überschreite?
Das Modell kann keine Token über sein Kontextfenster hinaus verarbeiten. Anfragen können vollständig fehlschlagen, oder frühere Inhalte werden stumm verworfen. Proaktives Kontext-Management verhindert dies durch Zusammenfassen oder Kürzen vor Erreichen der Limits.
Wie entscheide ich, welchen Kontext ich behalten versus zusammenfassen soll?
Priorisieren Sie nach Wichtigkeit für aktuelle Aufgaben, nicht nach Aktualität. Behalten Sie spezifische technische Details, Entscheidungen mit Begründung und ungelöste Punkte. Fassen Sie Brainstorming, gelöste Diskussionen und allgemeine Gespräche zusammen.
Was ist der Serial-Position-Effekt im LLM-Kontext?
LLMs zeigen stärkere Aufmerksamkeit für Inhalte am Anfang und Ende von Kontextfenstern mit degradierter Leistung bei Informationen in der Mitte. Strategische Platzierung kritischer Inhalte verbessert die Modellleistung.
Kann ich diese Fähigkeit mit jedem KI-Modell verwenden?
Ja, Kontext-Management-Prinzipien gelten universell für Claude, Codex und andere LLMs. Spezifische Token-Limits und Aufmerksamkeitsmuster variieren jedoch je nach Modell - prüfen Sie Ihre Modelldokumentation für Details.
Wie oft sollte ich Gesprächskontext zusammenfassen?
Fassen Sie proaktiv zusammen, wenn Sie 50-75 Prozent Ihres Kontextfensters erreichen, vor größeren Themenwechseln oder bei natürlichen Gesprächs-Checkpoints. Warten bis Sie nahe am Limit sind, riskiert den Verlust kritischer Informationen.
Verliert das Zusammenfassen von Kontext wichtige Details?
Einiger Detailverlust ist unvermeidlich, aber strategische Zusammenfassung bewahrt Wesentliches und entfernt Rauschen. Konzentrieren Sie sich auf Entscheidungen, Begründungen, Spezifikationen und Aktionspunkte. Sie können bei Bedarf immer den vollständigen Verlauf für spezifische Details abrufen.

Détails du développeur

Structure de fichiers

📄 SKILL.md