context-window-management
Meistern Sie das LLM-Kontextfenster-Management
Lange Gespräche und komplexe Prompts überfordern LLMs, was zu Informationsverlust und schlechten Antworten führt. Diese Fähigkeit vermittelt strategische Kontext-Kuration, Token-Optimierung und intelligente Zusammenfassung, um hochwertige KI-Interaktionen aufrechtzuerhalten.
Télécharger le ZIP du skill
Importer dans Claude
Allez dans Paramètres → Capacités → Skills → Importer un skill
Activez et commencez à utiliser
Tester
Utilisation de "context-window-management". Ein 50-Nachrichten-Gespräch über die Implementierung eines neuen Authentifizierungssystems, das das Kontextfenster überschritten hat
Résultat attendu:
Kondensierte 200-Token-Zusammenfassung bewahrt: gewählte Authentifizierungsmethode (OAuth 2.0 mit JWT), Datenbank-Schema-Entscheidungen, Sicherheitsanforderungen, Implementierungszeitplan und drei ausstehende Integrationsaufgaben
Utilisation de "context-window-management". Forschungssitzung zur Analyse von Wettbewerbsprodukten mit umfangreichen Feature-Vergleichen
Résultat attendu:
Priorisierter Kontext mit Führungszusammenfassung am Anfang, detaillierten Vergleichstabellen in der Mitte und umsetzbaren Empfehlungen am Ende - Token-Anzahl um 40 Prozent reduziert bei gleichzeitiger Verbesserung der Klarheit
Audit de sécurité
SûrAll static analyzer findings are false positives. The backtick characters at line 54 are Markdown inline code formatting for skill references, not shell command execution. No cryptographic algorithms exist in the document. This is a documentation-only skill providing educational guidance on context window management with no executable code, external commands, or network access.
Score de qualité
Ce que vous pouvez construire
Assistent für technische Dokumentation in Langform
Aufrechterhaltung kohärenter multi-session Gespräche über komplexe Codebasen durch strategische Zusammenfassung früherer Diskussionen bei gleichzeitiger Bewahrung kritischer Architekturentscheidungen und Implementierungsdetails
Kundenbetreuungs-Gesprächsmanagement
Bearbeitung von Kundenanfragen mit hohem Volumen durch intelligentes Kürzen gelöster Probleme bei gleichzeitiger Beibehaltung des Kontexts über laufende Probleme, Kundenpräferenzen und Eskalationshistorie
Forschungs- und Analyse-Workflow
Synthese von Erkenntnissen aus langwierigen Forschungssitzungen durch Priorisierung wichtiger Erkenntnisse und Methodiknotizen bei gleichzeitiger Verwerfung von explorativen Sackgassen und redundanten Analysepfaden
Essayez ces prompts
Fassen Sie die wichtigsten Punkte aus unserem bisherigen Gespräch zusammen. Konzentrieren Sie sich auf getroffene Entscheidungen, offene Fragen und Aktionspunkte. Halten Sie die Zusammenfassung unter 500 Token und bewahren Sie alle kritischen Informationen auf, die für die Fortsetzung unserer Arbeit benötigt werden.
Überprüfen Sie unseren Gesprächsverlauf und identifizieren Sie Abschnitte, die sicher kondensiert oder entfernt werden können. Priorisieren Sie: aktuelle Austausche, ungelöste Themen und spezifische technische Details. Zusammenfassen oder entfernen: Brainstorming-Abweichungen, gelöste Probleme und allgemeine Diskussionen.
Reorganisieren Sie den folgenden Kontext, um die wichtigsten Informationen am Anfang und am Ende zu platzieren. Gruppieren Sie zusammenhängende Themen zusammen. Verschieben Sie unterstützende Details in die mittleren Abschnitte. Dies optimiert für den Serial-Position-Effekt in der LLM-Aufmerksamkeit.
Erstellen Sie ein Kontext-Übergabedokument, das Folgendes erfasst: aktueller Projektstatus, wichtige Entscheidungen mit Begründung, ausstehende Aufgaben mit Prioritäten, relevante technische Spezifikationen und bekannte Einschränkungen. Formatieren für einfache Einfügung in eine neue Gesprächssitzung unter Beibehaltung voller Kontinuität.
Bonnes pratiques
- Platzieren Sie kritische Anweisungen und Einschränkungen ganz am Anfang Ihres Kontexts, um sicherzustellen, dass sie maximale Aufmerksamkeit vom Modell erhalten
- Fassen Sie Gesprächsverlauf regelmäßig basierend auf Wichtigkeit und Relevanz zusammen, nicht nur nach Alter - einige alte Kontexte bleiben wertvoller als aktuelle Austausche
- Verwenden Sie explizite Abschnittsmarkierungen und strukturierte Formatierung, um dem Modell zu helfen, relevante Informationen effizient aus großen Kontexten zu parsen und abzurufen
Éviter
- Das Anhängen des gesamten Gesprächsverlaufs ohne Kuratierung führt zu Kontext-Blähung, bei der wichtige Details in ausführlichen Inhalten mit geringem Wert verloren gehen
- Die Annahme, dass das Modell alles gleich gut erinnert - Kontextposition ist erheblich wichtig mit degradierter Aufmerksamkeit für mittlere Abschnitte
- Verwendung einheitlicher Verkürzung, die den neuesten Kontext abschneidet und kritische Informationen über den aktuellen Aufgabenstatus und ungelöste Probleme verliert
Foire aux questions
Was passiert, wenn ich das Kontextfenster-Limit überschreite?
Wie entscheide ich, welchen Kontext ich behalten versus zusammenfassen soll?
Was ist der Serial-Position-Effekt im LLM-Kontext?
Kann ich diese Fähigkeit mit jedem KI-Modell verwenden?
Wie oft sollte ich Gesprächskontext zusammenfassen?
Verliert das Zusammenfassen von Kontext wichtige Details?
Détails du développeur
Auteur
sickn33Licence
MIT
Dépôt
https://github.com/sickn33/antigravity-awesome-skills/tree/main/skills/context-window-managementRéf
main
Structure de fichiers
📄 SKILL.md