context-window-management
LLM 컨텍스트 윈도우 관리 마스터하기
긴 대화와 복잡한 프롬프트는 LLM을 압도하여 정보 손실과 부정확한 응답을 초래합니다. 이 스킬은 전략적 컨텍스트 큐레이션, 토큰 최적화, 지능형 요약을 통해 고품질 AI 상호작용을 유지하는 방법을 알려줍니다.
스킬 ZIP 다운로드
Claude에서 업로드
설정 → 기능 → 스킬 → 스킬 업로드로 이동
토글을 켜고 사용 시작
테스트해 보기
"context-window-management" 사용 중입니다. 새로운 인증 시��템 구현에 대한 50개 메시지 대화로 컨텍스트 윈도우 초과
예상 결과:
선택된 인증 방법(JWT를 포함한 OAuth 2.0), 데이터베이스 스키마 결정, 보안 요구사항, 구현 타임라인, 3개의 보류된 통합 작업을 보존하는 200토큰 요약으로 압축
"context-window-management" 사용 중입니다. 광범위한 기능 비교가 포함된 경쟁사 제품 분석 연구 세션
예상 결과:
시작에 경영진 요약, 중간에 상세 비교 표, 끝에 실행 가능한 권장사항이 있는 우선순위 컨텍스트 - 토큰 수를 40% 감소시키면서 명확성 개선
보안 감사
안전All static analyzer findings are false positives. The backtick characters at line 54 are Markdown inline code formatting for skill references, not shell command execution. No cryptographic algorithms exist in the document. This is a documentation-only skill providing educational guidance on context window management with no executable code, external commands, or network access.
품질 점수
만들 수 있는 것
장문 기술 문서 작성 도우미
이전 토론을 전략적으로 요약하면서 중요한 아키텍처 결정과 구현 세부 정보를 보존하여 복잡한 코드베이스에 대한 일관된 다중 세션 대화 유지
고객 지원 대화 관리
진행 중인 문제, 고객 선호도, 에스컬레이션 기록에 대한 컨텍스트를 유지하면서 해결된 이슈를 지능적으로 자르거나 줄여 대량의 고객 문의 처리
연구 및 분석 워크플로우
탐색적 막다른 경로와 중복된 분석 경로를 버리면서 핵심 발견과 방법론 노트를 우선시하여 긴 연구 세션의 인사이트 통합
이 프롬프트를 사용해 보세요
지금까지의 대화에서 핵심 사항을 요약해 주세요. 결정된 사��, 해결되지 않은 질문, 실행 항목에 중점을 두세요. 작업을 계속하는 데 필요한 모든 중요한 정보를 보존하면서 500토큰 이내로 요약하세요.
대화 기록을 검토하고 안전하게 압축하거나 제거할 수 있는 섹션을 식별하세요. 최근 교환, 해결되지 않은 주제, 구체적인 기술 세부 정보 유지를 우선시하세요. 브레인스토밍과 관련 없는 내용, 해결된 이슈, 일반적인 토론은 요약하거나 제거하���요.
가장 중요한 정보가 시작과 끝에 오도록 다음 컨텍스트를 재구성하세요. 관련 주제를 함께 그룹화하세요. 보조 세부 정보는 중간 섹션으로 이동하세요. 이는 LLM 어텐���의 연속 위치 효과를 최적화합니다.
다음을 포함하는 컨텍스트 인계 문서를 작성하세요: 현재 프로젝트 상태, 근거�� 함께 핵심 결정 사항, 우선순위별 보류 작업, 관련 기술 사양, 알려진 제약 조건. 완전한 연속성을 유지하면서 새로운 대화에 쉽게 삽입할 수 있도록 형식을 지정하세요.
모범 사례
- 모델의 최대한의 주의를 끌 수 있도록 중요한 지침과 제약 조건을 컨텍스트의 맨 앞에 배치하세요
- 시간 경과가 아닌 중요도와 관련성을 기반으로 주기적으로 대화 기록을 요약하세요 - 일부 오래된 컨텍스트는 최근 교환보다 더 가치가 있습니다
- 모델이 대용량 컨텍스트에서 관련 정보를 효율적으로 구문 분석하고 검색할 수 있도록 명시적인 섹션 마커와 구조화된 형식을 사용하세요
피하기
- 선별 없이 모든 대화 기록을 추가하면 중요한 세부 정보가 장황한 저가치 콘텐츠에 묻히는 컨텍스트 비대로 이어집니다
- 모델이 모든 것을 동등하게 기억한다고 가정 - 컨텍스트 위치가 중요하며 중간 섹션에 대한 주의력이 저하됩니다
- 가장 최근 컨텍스트를 자르는 균일한 절단 사용으로 현재 작업 상태와 해결되지 않은 이슈에 대한 중요한 정보 손실
자주 묻는 질문
컨텍스트 윈도우 제한을 초과하면 어떻게 ��나요?
유지할 컨텍스트와 요약할 컨텍스트를 어떻게 결정하나요?
LLM 컨텍스트에서 연속 위치 효과란 무엇인가요?
모든 AI 모델에서 이 스킬을 사용할 수 있나요?
대화 컨텍스트를 얼마나 자주 요약해야 하나요?
컨텍스트 요약으로 중요한 세부 정보가 손실되나요?
개발자 세부 정보
작성자
sickn33라이선스
MIT
리포지토리
https://github.com/sickn33/antigravity-awesome-skills/tree/main/skills/context-window-management참조
main
파일 구조
📄 SKILL.md