المهارات context-degradation
📦

context-degradation

آمن

Kontextdegradation in LLMs erkennen

متاح أيضًا من: muratcankoylan,ChakshuGautam,Asmayaseen

Sprachmodelle zeigen eine vorhersehbare Leistungsverschlechterung mit zunehmender Kontextlänge. Dieses Skill hilft dabei, Lost-in-Middle-, Poisoning-, Ablenkungs- und Konfliktmuster zu diagnostizieren, um zuverlässigere KI-Systeme zu entwickeln.

يدعم: Claude Codex Code(CC)
⚠️ 68 ضعيف
1

تنزيل ZIP المهارة

2

رفع في Claude

اذهب إلى Settings → Capabilities → Skills → Upload skill

3

فعّل وابدأ الاستخدام

اختبرها

استخدام "context-degradation". Conversation has 60000 tokens. Agent started producing incorrect summaries after turn 20.

النتيجة المتوقعة:

Analysis: Context degradation detected. The lost-in-middle phenomenon is likely causing the agent to miss key information from the middle of context. Recommendation: Apply compaction to summarize earlier context, or restructure to place critical info at edges.

استخدام "context-degradation". User asks about code from turn 1, but agent refers to wrong implementation from turn 15.

النتيجة المتوقعة:

Analysis: Context clash detected. Multiple implementations exist in context with conflicting details. Recommendation: Use explicit versioning and mark conflicts for clarification before proceeding.

التدقيق الأمني

آمن
v1 • 2/24/2026

Static analysis flagged 20 potential issues including external_commands, network, and weak cryptographic algorithms. All findings are FALSE POSITIVES: the 'external_commands' detections are YAML token count examples with backtick formatting; 'network' is a legitimate GitHub URL in metadata; 'weak cryptographic algorithm' is a pattern matching error triggered by the word 'degradation'; 'system reconnaissance' falsely triggers on 'multi-source retrieval'. This skill is pure educational documentation about LLM context degradation with no executable code.

1
الملفات التي تم فحصها
239
الأسطر التي تم تحليلها
4
النتائج
1
إجمالي عمليات التدقيق

مشكلات عالية المخاطر (4)

False Positive: External Commands Detection
Static scanner detected 'Ruby/shell backtick execution' at lines 169, 176, 179. These are YAML token count examples (turn_20: 60000 tokens) used as documentation, not actual shell commands.
False Positive: Network Security Detection
Static scanner detected 'Hardcoded URL' at line 4. This is a legitimate GitHub source URL in the skill metadata, not a security vulnerability.
False Positive: Weak Cryptographic Algorithm
Static scanner incorrectly flagged 'weak cryptographic algorithm' at 16 locations. Pattern matcher triggers on the word 'degradation' (appears as 'deg' in scanning patterns). No cryptographic code exists in this skill.
False Positive: System Reconnaissance
Static scanner flagged 'System reconnaissance' at line 92. Content discusses 'multi-source retrieval' in the context of information retrieval research, not system reconnaissance.
تم تدقيقه بواسطة: claude

درجة الجودة

38
الهندسة المعمارية
100
قابلية الصيانة
87
المحتوى
50
المجتمع
65
الأمان
91
الامتثال للمواصفات

ماذا يمكنك بناءه

Agent-Fehler beheben

Wenn ein KI-Agent in langen Gesprächen falsche oder irrelevante Ausgaben produziert, verwenden Sie dieses Skill, um zu identifizieren, ob Kontextdegradation die Grundursache ist

Resiliente Systeme entwerfen

Architektieren Sie Systeme, die große Kontexte zuverlässig verarbeiten, indem Sie den Four-Bucket-Ansatz und die in diesem Skill beschriebenen architektonischen Muster anwenden

Kontextentscheidungen bewerten

Treffen Sie fundierte Entscheidungen über Kontext-Engineering für Produktionssysteme, indem Sie Degradationsschwellenwerte und Mitigationsstrategien verstehen

جرّب هذه الموجهات

Basis-Degradationsprüfung
Analysieren Sie dieses Gespräch auf Kontextdegradationsmuster. Das Gespräch ist auf über 50000 Tokens angewachsen. Suchen Sie nach Anzeichen von Lost-in-Middle, Poisoning, Ablenkung oder Konflikten.
Lost-in-Middle-Diagnose
Überprüfen Sie den angehängten Kontext und identifizieren Sie, ob kritische Informationen in der Mitte vergraben sind. Die Aufgabe erfordert Informationen aus dem mittleren Abschnitt, aber die Ausgaben sind falsch.
Kontext-Poisoning-Wiederherstellung
Analysieren Sie diesen Kontext auf Anzeichen von Poisoning. Symptome umfassen verschlechterte Ausgabequalität, Tool-Fehlausrichtung und persistente Halluzinationen trotz Korrekturen. Welche Schritte können zur Wiederherstellung beitragen?
Architektonische Musterauswahl
Für ein System, das Kontexte von über 200K Tokens mit mehreren unabhängigen Aufgaben verarbeitet, empfehlen Sie, welche Four-Bucket-Strategien (Schreiben, Auswählen, Komprimieren, Isolieren) anzuwenden sind und warum.

أفضل الممارسات

  • Platzieren Sie kritische Informationen am Anfang oder Ende des Kontexts, wo die Aufmerksamkeit am höchsten ist
  • Überwachen Sie die Korrelation zwischen Kontextlänge und Leistung während der Entwicklung
  • Implementieren Sie Kompaktierungsauslöser, bevor die Degradation schwerwiegend wird

تجنب

  • Annehmen, dass längerer Kontext die Leistung immer verbessert
  • Laden aller abgerufenen Dokumente ohne Relevanzfilterung
  • Erlauben, dass Kontext unbegrenzt wächst, ohne Segmentierung

الأسئلة المتكررة

Was ist das Lost-in-Middle-Phänomen?
Das Lost-in-Middle-Phänomen tritt auf, wenn Modelle U-förmige Aufmerksamkeitskurven zeigen. Informationen am Anfang und Ende des Kontexts erhalten zuverlässige Aufmerksamkeit, während Informationen in der Mitte unter dramatisch reduzierter Erinnerungsgenauigkeit leiden.
Wie tritt Kontext-Poisoning auf?
Kontext-Poisoning tritt auf, wenn Halluzinationen, Fehler oder falsche Informationen in den Kontext gelangen und sich durch wiederholte Referenzierung verstärken. Einmal vergiftet, erzeugt der Kontext Feedback-Schleifen, die falsche Überzeugungen verstärken.
Was ist der Four-Bucket-Ansatz?
Der Four-Bucket-Ansatz umfasst: Schreiben (Kontext außerhalb des Fensters speichern), Auswählen (relevanten Kontext durch Retrieval abrufen), Kompressen (Tokens durch Zusammenfassung reduzieren) und Isolieren (Kontext über Sub-Agents aufteilen).
Helfen größere Kontextfenster immer?
Nein. Größere Kontexte können neue Probleme verursachen, einschließlich Leistungsverschlechterungskurven, unverhältnismäßiger Kostenerhöhungen und kognitiver Engpässe, bei denen Modelle Schwierigkeiten haben, die Qualität über viele Aufgaben hinweg aufrechtzuerhalten.
Wie erkenne ich, ob mein Kontext vergiftet ist?
Achten Sie auf Symptome einschließlich verschlechterter Ausgabequalität bei Aufgaben, die zuvor erfolgreich waren, Tool-Fehlausrichtung, bei der Agenten falsche Tools aufrufen, und Halluzinationen, die trotz Korrekturversuchen bestehen bleiben.
Welche Modelle verarbeiten lange Kontexte am besten?
Laut Benchmarks zeigt Claude Opus 4.5 Degradation um 100K Tokens, GPT-5.2 (Denkmodus) um etwa 64K und Gemini 3 Pro um 500K. Benchmarks variieren jedoch je nach Aufgabentyp.

تفاصيل المطور

بنية الملفات

📄 SKILL.md