스킬 context-window-management
📦

context-window-management

안전

LLM 컨텍스트 윈도우 관리 마스터하기

긴 대화와 복잡한 프롬프트는 LLM을 압도하여 정보 손실과 부정확한 응답을 초래합니다. 이 스킬은 전략적 컨텍스트 큐레이션, 토큰 최적화, 지능형 요약을 통해 고품질 AI 상호작용을 유지하는 방법을 알려줍니다.

지원: Claude Codex Code(CC)
🥉 74 브론즈
1

스킬 ZIP 다운로드

2

Claude에서 업로드

설정 → 기능 → 스킬 → 스킬 업로드로 이동

3

토글을 켜고 사용 시작

테스트해 보기

"context-window-management" 사용 중입니다. 새로운 인증 시��템 구현에 대한 50개 메시지 대화로 컨텍스트 윈도우 초과

예상 결과:

선택된 인증 방법(JWT를 포함한 OAuth 2.0), 데이터베이스 스키마 결정, 보안 요구사항, 구현 타임라인, 3개의 보류된 통합 작업을 보존하는 200토큰 요약으로 압축

"context-window-management" 사용 중입니다. 광범위한 기능 비교가 포함된 경쟁사 제품 분석 연구 세션

예상 결과:

시작에 경영진 요약, 중간에 상세 비교 표, 끝에 실행 가능한 권장사항이 있는 우선순위 컨텍스트 - 토큰 수를 40% 감소시키면서 명확성 개선

보안 감사

안전
v1 • 2/24/2026

All static analyzer findings are false positives. The backtick characters at line 54 are Markdown inline code formatting for skill references, not shell command execution. No cryptographic algorithms exist in the document. This is a documentation-only skill providing educational guidance on context window management with no executable code, external commands, or network access.

1
스캔된 파일
58
분석된 줄 수
0
발견 사항
1
총 감사 수
보안 문제를 찾지 못했습니다
감사자: claude

품질 점수

38
아키텍처
100
유지보수성
87
콘텐츠
50
커뮤니티
100
보안
91
사양 준수

만들 수 있는 것

장문 기술 문서 작성 도우미

이전 토론을 전략적으로 요약하면서 중요한 아키텍처 결정과 구현 세부 정보를 보존하여 복잡한 코드베이스에 대한 일관된 다중 세션 대화 유지

고객 지원 대화 관리

진행 중인 문제, 고객 선호도, 에스컬레이션 기록에 대한 컨텍스트를 유지하면서 해결된 이슈를 지능적으로 자르거나 줄여 대량의 고객 문의 처리

연구 및 분석 워크플로우

탐색적 막다른 경로와 중복된 분석 경로를 버리면서 핵심 발견과 방법론 노트를 우선시하여 긴 연구 세션의 인사이트 통합

이 프롬프트를 사용해 보세요

기본 컨텍스트 요약
지금까지의 대화에서 핵심 사항을 요약해 주세요. 결정된 사��, 해결되지 않은 질문, 실행 항목에 중점을 두세요. 작업을 계속하는 데 필요한 모든 중요한 정보를 보존하면서 500토큰 이내로 요약하세요.
전략적 컨텍스트 트리밍
대화 기록을 검토하고 안전하게 압축하거나 제거할 수 있는 섹션을 식별하세요. 최근 교환, 해결되지 않은 주제, 구체적인 기술 세부 정보 유지를 우선시하세요. 브레인스토밍과 관련 없는 내용, 해결된 이슈, 일반적인 토론은 요약하거나 제거하���요.
연속 위치 최적화
가장 중요한 정보가 시작과 끝에 오도록 다음 컨텍스트를 재구성하세요. 관련 주제를 함께 그룹화하세요. 보조 세부 정보는 중간 섹션으로 이동하세요. 이는 LLM 어텐���의 연속 위치 효과를 최적화합니다.
다�� 세션 컨텍스트 인계
다음을 포함하는 컨텍스트 인계 문서를 작성하세요: 현재 프로젝트 상태, 근거�� 함께 핵심 결정 사항, 우선순위별 보류 작업, 관련 기술 사양, 알려진 제약 조건. 완전한 연속성을 유지하면서 새로운 대화에 쉽게 삽입할 수 있도록 형식을 지정하세요.

모범 사례

  • 모델의 최대한의 주의를 끌 수 있도록 중요한 지침과 제약 조건을 컨텍스트의 맨 앞에 배치하세요
  • 시간 경과가 아닌 중요도와 관련성을 기반으로 주기적으로 대화 기록을 요약하세요 - 일부 오래된 컨텍스트는 최근 교환보다 더 가치가 있습니다
  • 모델이 대용량 컨텍스트에서 관련 정보를 효율적으로 구문 분석하고 검색할 수 있도록 명시적인 섹션 마커와 구조화된 형식을 사용하세요

피하기

  • 선별 없이 모든 대화 기록을 추가하면 중요한 세부 정보가 장황한 저가치 콘텐츠에 묻히는 컨텍스트 비대로 이어집니다
  • 모델이 모든 것을 동등하게 기억한다고 가정 - 컨텍스트 위치가 중요하며 중간 섹션에 대한 주의력이 저하됩니다
  • 가장 최근 컨텍스트를 자르는 균일한 절단 사용으로 현재 작업 상태와 해결되지 않은 이슈에 대한 중요한 정보 손실

자주 묻는 질문

컨텍스트 윈도우 제한을 초과하면 어떻게 ��나요?
모델은 컨텍스트 윈도우를 초과하는 토큰을 처리할 수 없습니다. 요청이 완전히 실패하거나 이전 콘텐츠가 조용히 삭제될 �� 있습니다. 적극적인 컨텍스트 관리는 제한에 도달하기 전에 요약 또는 트리밍하여 이를 방지합니다.
유지할 컨텍스트와 요약할 컨텍스트를 어떻게 결정하나요?
최신이 아닌 현재 작업에 대한 중요도를 기준으로 우선순위를 지정하세요. 구체적인 기술 세부 정보, 근거와 함께 결정 사항, 해결되지 않은 항목을 유지하세요. 브레인스토밍, 해결된 토론, 일반적인 대화는 요약��세요.
LLM 컨텍스트에서 연속 위치 효과란 무엇인가요?
LLM은 컨텍스트 윈도우의 시작과 끝에 있는 콘텐츠에 더 강력한 주의를 기울이며 중간 정보에 대해서는 성능이 저하됩니다. 중요한 콘텐츠의 전략적 배치는 모델 성능을 향상시킵니다.
모든 AI 모델에서 이 스킬을 사용할 수 있나요?
네, 컨텍스트 관리 원칙은 Claude, Codex 및 기타 LLM 전체에 보편적으로 적용됩니다. 그러나 특정 토큰 제한과 어텐션 패턴은 모델마다 다르므로 자세한 내용은 모델 문서를 확인하세요.
대화 컨텍스트를 얼마나 자주 요약해야 하나요?
컨텍스트 윈도우의 50-75%에 도달했을 때, 주요 주제 전환 전, 또는 자연스러운 대화 체크포인트에서 미리 요약하세요. 제한에 근접할 때까지 기다리면 중요한 정보가 손실될 위험이 있습니다.
컨텍스트 요약으로 중요한 세부 정보가 손실되나요?
일부 세부 정보 손실은 불가피하지만 전략적 요약은 필수 정보를 보존하면서 노이즈를 제거합니다. 결��� 사항, 근거, 사양, 실행 항목에 중점을 두세요. 특정 세부 정보가 필요하면 언제든 전체 기록을 검색할 수 있습니다.

개발자 세부 정보

파일 구조

📄 SKILL.md