المهارات context-degradation
📦

context-degradation

آمن

LLM의 컨텍스트 성능 저하 감지

متاح أيضًا من: muratcankoylan,ChakshuGautam,Asmayaseen

언어 모델은 컨텍스트 길이가 증가함에 따라 예측 가능�� 성능 저하를 보입니다. 이 스킬은 더 신뢰할 수 있는 AI 시스템을 구축하기 위해 lost-in-middle, poisoning, distraction, clash 패턴을 진단하는 데 도움�� 줍니다.

يدعم: Claude Codex Code(CC)
⚠️ 68 ضعيف
1

تنزيل ZIP المهارة

2

رفع في Claude

اذهب إلى Settings → Capabilities → Skills → Upload skill

3

فعّل وابدأ الاستخدام

اختبرها

استخدام "context-degradation". 대화가 60000토큰입니다. 에이전트가 20턴 후 잘못된 요약을 생성하기 시작했습니다.

النتيجة المتوقعة:

분석: 컨텍스트 저하가 감지되었습니다. Lost-in-middle 현상으로 인해 에이전트가 컨텍스트 중간의 핵심 정보를 놓치고 있는 것으로 보입니다. 권장사항: 이전 컨텍스트를 요약하여 압축하거나, 중요한 정보를 가장자리에 배치하도록 구조를 재구성하세요.

استخدام "context-degradation". 사용자가 1턴의 코드를 질문했지만, 에이전트는 15턴의 잘못된 구현을 참조합니다.

النتيجة المتوقعة:

분석: 컨텍스트 clash가 감지되었습니다. 충돌하는 세부 정보를 가진 여러 구현이 ���텍스트에 존재합니다. 권장사항: 명시적인 버전 관리를 사용하고 진행 전에 충돌을 명확히 하도록 표시하세요.

التدقيق الأمني

آمن
v1 • 2/24/2026

Static analysis flagged 20 potential issues including external_commands, network, and weak cryptographic algorithms. All findings are FALSE POSITIVES: the 'external_commands' detections are YAML token count examples with backtick formatting; 'network' is a legitimate GitHub URL in metadata; 'weak cryptographic algorithm' is a pattern matching error triggered by the word 'degradation'; 'system reconnaissance' falsely triggers on 'multi-source retrieval'. This skill is pure educational documentation about LLM context degradation with no executable code.

1
الملفات التي تم فحصها
239
الأسطر التي تم تحليلها
4
النتائج
1
إجمالي عمليات التدقيق

مشكلات عالية المخاطر (4)

False Positive: External Commands Detection
Static scanner detected 'Ruby/shell backtick execution' at lines 169, 176, 179. These are YAML token count examples (turn_20: 60000 tokens) used as documentation, not actual shell commands.
False Positive: Network Security Detection
Static scanner detected 'Hardcoded URL' at line 4. This is a legitimate GitHub source URL in the skill metadata, not a security vulnerability.
False Positive: Weak Cryptographic Algorithm
Static scanner incorrectly flagged 'weak cryptographic algorithm' at 16 locations. Pattern matcher triggers on the word 'degradation' (appears as 'deg' in scanning patterns). No cryptographic code exists in this skill.
False Positive: System Reconnaissance
Static scanner flagged 'System reconnaissance' at line 92. Content discusses 'multi-source retrieval' in the context of information retrieval research, not system reconnaissance.
تم تدقيقه بواسطة: claude

درجة الجودة

38
الهندسة المعمارية
100
قابلية الصيانة
87
المحتوى
50
المجتمع
65
الأمان
91
الامتثال للمواصفات

ماذا يمكنك بناءه

에이전트 오류 디버깅

AI 에이전트가 긴 대화 동안 올바르지 않거나 관련 없는 출력을 생성할 때 컨텍스트 저하가 근본 원인인지 확인하기 위해 이 스킬을 사용하세요

회복력 있는 시스템 설계

이 스킬에 설명된 4개 버킷 접근법과 아키텍처 패턴을 적용하여 큰 컨텍스트를 안정적으로 처리하는 시스템을 설계하세요

컨텍스트 선택 평가

저하 임계값과 완화 전략을 이해하여 프로덕션 시스템의 컨텍스트 엔지니어링에 대한 정보에 입각한 결정을 내리세요

جرّب هذه الموجهات

기본 저하 확인
이 대화를 분석하여 컨텍스트 저하 패턴을 확인하세요. 대화가 50000토큰을 초과했습니다. lost-in-middle, poisoning, distraction, clash의 징후를 찾으세요.
Lost-in-Middle 진단
첨부된 컨텍스트를 검토하여 중요한 정보가 중간에 묻혀있는지 확인하세요. 작업은 중간 섹션의 정보가 필요하지만 출력이 올바르지 않습니다.
컨텍스트 Poisoning 복구
poisoning의 징후에 대해 컨텍스트를 분석하세요. 증상에는 출력 품질 저하, tool misalignment, 수정에도 불구하고 지속되는 halluncination이 포함됩니다. 어떤 단계로 복구할 수 있나요?
아키텍처 패턴 선택
여러 독립적인 작업으로 20만 토큰 이상의 컨텍스트를 처리하는 시스템에서 4개 버킷 전략(Write, Select, Compress, Isolate) 중 어떤 것을 적용해야 하는지 권장하고 이유를 설명하세요.

أفضل الممارسات

  • 주의력이 가장 높은 컨텍스트의 시작 ��는 끝에 중요한 정보 배치
  • 개발 중 컨텍스트 길이와 성능 상관관계 모니터링
  • 저하가 심각해지기 전에 압축 트리거 구현

تجنب

  • 더 긴 컨텍스트가 항상 성능을 향상시킨다고 가정
  • 관련성 필터링 없이 검색된 모든 문서 로드
  • 세분화 없이 컨텍스트가 무한히 증가하도록 허용

الأسئلة المتكررة

Lost-in-middle 현상이란 무엇인가요?
Lost-in-middle 현상은 모델이 U자��� 주의력 곡선을 보여주는 현상입니다. 컨텍스트의 시작과 끝에 있는 정보는 안정적인 주의력을 받지만, 중간에 있는 정보는 리콜 정확도가 현저히 떨어집니다.
컨텍스트 poisoning은 어떻게 발생하나요?
컨텍스트 poisoning은 halluncination, 오류, 또는 잘못된 정보가 컨텍스트에 진입하여 반복 참조를 통해 누적될 때 발생합니다. 한번 poisoning되면 컨텍스트는 잘못된 신념을 강화하는 피드백 루프를 생성합니다.
4개 버킷 접근법이란 무엇인가요?
4개 버킷 접근법에는 Write(컨텍스트를 윈도우 외부에 저장), Select(검색을 통해 관련 컨텍스트 가져오기), Compress(요약을 통해 토큰 감소), Isolate(서��� 에이전트 간 컨텍스트 분할)가 포함됩니다.
더 큰 컨텍스트 윈도우가 항상 도움이 되나요?
아닙니다. 더 큰 컨텍스트는 성능 저하 곡선, 불균형적인 비용 증가, 모델이 여러 작업에서 품질을 유지하기 어려운 인지 병목 현상과 같은 새로운 문��를 만들 수 있습니다.
컨텍스트가 poisoning되었는지 어떻게 알 수 있나요?
이전에 성공했던 작업에서 출력 품질 저하, 에이전트가 잘못된 tool을 호출하는 tool misalignment, 수정 시도에도 불구하고 지속되는 halluncination과 같은 증상을 확인하세요.
어떤 모델이 긴 컨텍스트를 가장 잘 처리하나요?
벤치마크에 따르면 Claude Opus 4.5는 약 10만 토큰, GPT-5.2(thinking 모드)는 약 6만 4천 토큰, Gemini 3 Pro는 약 50만 토큰에서 저하를 보입니다. 그러나 벤치마크는 작업 유형에 따라 다릅니다.

تفاصيل المطور

بنية الملفات

📄 SKILL.md