context-window-management
Meistern Sie das LLM-Kontextfenster-Management
Lange Gespräche und komplexe Prompts überfordern LLMs, was zu Informationsverlust und schlechten Antworten führt. Diese Fähigkeit vermittelt strategische Kontext-Kuration, Token-Optimierung und intelligente Zusammenfassung, um hochwertige KI-Interaktionen aufrechtzuerhalten.
Die Skill-ZIP herunterladen
In Claude hochladen
Gehe zu Einstellungen → Fähigkeiten → Skills → Skill hochladen
Einschalten und loslegen
Teste es
Verwendung von "context-window-management". Ein 50-Nachrichten-Gespräch über die Implementierung eines neuen Authentifizierungssystems, das das Kontextfenster überschritten hat
Erwartetes Ergebnis:
Kondensierte 200-Token-Zusammenfassung bewahrt: gewählte Authentifizierungsmethode (OAuth 2.0 mit JWT), Datenbank-Schema-Entscheidungen, Sicherheitsanforderungen, Implementierungszeitplan und drei ausstehende Integrationsaufgaben
Verwendung von "context-window-management". Forschungssitzung zur Analyse von Wettbewerbsprodukten mit umfangreichen Feature-Vergleichen
Erwartetes Ergebnis:
Priorisierter Kontext mit Führungszusammenfassung am Anfang, detaillierten Vergleichstabellen in der Mitte und umsetzbaren Empfehlungen am Ende - Token-Anzahl um 40 Prozent reduziert bei gleichzeitiger Verbesserung der Klarheit
Sicherheitsaudit
SicherAll static analyzer findings are false positives. The backtick characters at line 54 are Markdown inline code formatting for skill references, not shell command execution. No cryptographic algorithms exist in the document. This is a documentation-only skill providing educational guidance on context window management with no executable code, external commands, or network access.
Qualitätsbewertung
Was du bauen kannst
Assistent für technische Dokumentation in Langform
Aufrechterhaltung kohärenter multi-session Gespräche über komplexe Codebasen durch strategische Zusammenfassung früherer Diskussionen bei gleichzeitiger Bewahrung kritischer Architekturentscheidungen und Implementierungsdetails
Kundenbetreuungs-Gesprächsmanagement
Bearbeitung von Kundenanfragen mit hohem Volumen durch intelligentes Kürzen gelöster Probleme bei gleichzeitiger Beibehaltung des Kontexts über laufende Probleme, Kundenpräferenzen und Eskalationshistorie
Forschungs- und Analyse-Workflow
Synthese von Erkenntnissen aus langwierigen Forschungssitzungen durch Priorisierung wichtiger Erkenntnisse und Methodiknotizen bei gleichzeitiger Verwerfung von explorativen Sackgassen und redundanten Analysepfaden
Probiere diese Prompts
Fassen Sie die wichtigsten Punkte aus unserem bisherigen Gespräch zusammen. Konzentrieren Sie sich auf getroffene Entscheidungen, offene Fragen und Aktionspunkte. Halten Sie die Zusammenfassung unter 500 Token und bewahren Sie alle kritischen Informationen auf, die für die Fortsetzung unserer Arbeit benötigt werden.
Überprüfen Sie unseren Gesprächsverlauf und identifizieren Sie Abschnitte, die sicher kondensiert oder entfernt werden können. Priorisieren Sie: aktuelle Austausche, ungelöste Themen und spezifische technische Details. Zusammenfassen oder entfernen: Brainstorming-Abweichungen, gelöste Probleme und allgemeine Diskussionen.
Reorganisieren Sie den folgenden Kontext, um die wichtigsten Informationen am Anfang und am Ende zu platzieren. Gruppieren Sie zusammenhängende Themen zusammen. Verschieben Sie unterstützende Details in die mittleren Abschnitte. Dies optimiert für den Serial-Position-Effekt in der LLM-Aufmerksamkeit.
Erstellen Sie ein Kontext-Übergabedokument, das Folgendes erfasst: aktueller Projektstatus, wichtige Entscheidungen mit Begründung, ausstehende Aufgaben mit Prioritäten, relevante technische Spezifikationen und bekannte Einschränkungen. Formatieren für einfache Einfügung in eine neue Gesprächssitzung unter Beibehaltung voller Kontinuität.
Bewährte Verfahren
- Platzieren Sie kritische Anweisungen und Einschränkungen ganz am Anfang Ihres Kontexts, um sicherzustellen, dass sie maximale Aufmerksamkeit vom Modell erhalten
- Fassen Sie Gesprächsverlauf regelmäßig basierend auf Wichtigkeit und Relevanz zusammen, nicht nur nach Alter - einige alte Kontexte bleiben wertvoller als aktuelle Austausche
- Verwenden Sie explizite Abschnittsmarkierungen und strukturierte Formatierung, um dem Modell zu helfen, relevante Informationen effizient aus großen Kontexten zu parsen und abzurufen
Vermeiden
- Das Anhängen des gesamten Gesprächsverlaufs ohne Kuratierung führt zu Kontext-Blähung, bei der wichtige Details in ausführlichen Inhalten mit geringem Wert verloren gehen
- Die Annahme, dass das Modell alles gleich gut erinnert - Kontextposition ist erheblich wichtig mit degradierter Aufmerksamkeit für mittlere Abschnitte
- Verwendung einheitlicher Verkürzung, die den neuesten Kontext abschneidet und kritische Informationen über den aktuellen Aufgabenstatus und ungelöste Probleme verliert
Häufig gestellte Fragen
Was passiert, wenn ich das Kontextfenster-Limit überschreite?
Wie entscheide ich, welchen Kontext ich behalten versus zusammenfassen soll?
Was ist der Serial-Position-Effekt im LLM-Kontext?
Kann ich diese Fähigkeit mit jedem KI-Modell verwenden?
Wie oft sollte ich Gesprächskontext zusammenfassen?
Verliert das Zusammenfassen von Kontext wichtige Details?
Entwicklerdetails
Autor
sickn33Lizenz
MIT
Repository
https://github.com/sickn33/antigravity-awesome-skills/tree/main/skills/context-window-managementRef
main
Dateistruktur
📄 SKILL.md