스킬 prompt-caching
📦

prompt-caching

안전

프롬프트 캐싱으로 LLM 비용 최적화

Anthropic 네이티브 캐싱, 응답 캐싱, CAG 패턴을 포함한 전략적 프롬프트 캐싱 구현을 통해 LLM API 비용을 최대 90%까지 절감하세요.

지원: Claude Codex Code(CC)
🥉 72 브론즈
1

스킬 ZIP 다운로드

2

Claude에서 업로드

설정 → 기능 → 스킬 → 스킬 업로드로 이동

3

토글을 켜고 사용 시작

테스트해 보기

"prompt-caching" 사용 중입니다. LLM API 비용을 어떻게 줄일 수 있나요?

예상 결과:

프롬프트 캐싱을 구현하여 LLM API 비용을 줄 수 있습니다. 주요 전략은 다음과 같습니다: 1) 반복되는 시스템 프롬프트에 Anthropic의 네이티브 프롬프트 캐싱 사용 - 프롬프트 프리픽스를 캐싱하여 새 토큰에 대해서만 비용을 지불합니다. 2) 동일한 쿼리에 대한 응답 캐싱 구현 - 프롬프트의 해시를 저장하고 캐시된 응답을 반환합니다. 3) 캐시 증강 생성 (CAG)을 사용하여 매번 RAG 검색을 수행하는 대신 문서를 사전 캐시합니다.

"prompt-caching" 사용 중입니다. 캐시가 작동하지 않는 이유는 무엇인가요?

예상 결과:

프롬프트 캐싱 실패의 일반적인 이유: 1) 0이 아닌 temperature 사용 - 캐시된 응답이 달라집니다. 2) 프롬프트 프리픽스를 자주 변경 - 캐시는 정확한 프리픽스 일치에 의존합니다. 3) cache-control 헤더를 올바르��� 사용하지 않음. 4) 캐시 TTL 초과 (Anthropic의 경우 일반적으로 5분).

보안 감사

안전
v1 • 2/24/2026

All static findings are false positives. The skill is a markdown documentation file with no executable code. The external_commands detections are markdown backticks used for code formatting. The weak cryptographic algorithm detections are misinterpretations of YAML frontmatter content. No actual security risks present.

1
스캔된 파일
66
분석된 줄 수
0
발견 사항
1
총 감사 수
보안 문제를 찾지 못했습니다
감사자: claude

품질 점수

38
아키텍처
100
유지보수성
87
콘텐츠
32
커뮤니티
100
보안
100
사양 준수

만들 수 있는 것

프로덕션 애플리케이션의 API 비용 절감

반복되는 컨텍스트가 있는 프로덕션 시스템에서 프롬프트 캐싱을 구현하여 LLM API 비용을 획기적으로 절감하세요.

장기 실행 대화 최적화

캐싱을 활용하여 각 메시지마다 전체 컨텍스트 비용을 발생시키지 않고 대화 컨텍스트를 유지하세요.

응답 지연 시간 ���선

캐시된 응답을 활용하여 반복되는 쿼리의 응답 시간을 단축하세요.

이 프롬프트를 사용해 보세요

기본 프롬프트 캐싱 설정
Claude API로 프롬프��� 캐싱을 설정하는 방법은 무엇인가요? 기본 구현 단계를 보여주세요.
응답 캐싱 전략
유사한 사용자 ���리를 처���하는 Q&A 시스템을 위한 응답 캐싱 전략을 설계하세요. 캐시 키 설계와 무효화 로직을 포함하세요.
CAG 구현 가이드
캐시 ���강 생성 (CAG)을 설명하고 문서를 사전 캐시하기 위한 Python 구현 패턴을 제공하세요.
캐시 무효화 모범 사례
LLM 애플리케이션에서 캐시 무효화를 위한 모범 사례는 무엇인가요? 시간 기반 및 이벤트 기반 전략을 포함하세요.

모범 사례

  • 요청 간에 일관되게 유지되는 정적 프리픽스로 프롬프트 구조화
  • 정확히 일치하는 응답을 캐싱할 때 temperature를 0으로 사용
  • 시간 기반 또는 이벤트 기반 트리거로 적절한 캐시 무효화 구현
  • 캐시 적중률 모니터링 및 이에 따른 프리픽스 구조 최적화

피하기

  • 높은 temperature 설정으로 응답 캐싱 - 출력이 달라지고 캐시된 데이터가 쓸모없어짐
  • 무효화 전략 없이 캐싱 - 오래된 데이터로 인해 잘못된 응답 발생
  • 무차별적으로 모든 것 캐싱 - 캐시 미스 시 지연 시간이 증가하고 비례하는 이점 없음

자주 묻는 질문

프롬프트 캐싱이란 무엇인가요?
프롬프트 캐싱은 여러 요청에서 재사용할 수 있도록 프롬프트 프리픽스의 계산된 상태를 저장하는 기술로, 처리되는 토큰 수를 줄이고 비용을 절감합니다.
프롬프트 캐싱으로 얼마나 절약할 수 있나요?
사용자들은 프롬프트의 얼마나 많은 부분을 안정적인 프리픽스로 캐시할 수 있느냐에 따라 50-90%의 비용 절감을 보고합니다.
프롬프트 캐싱은 모든 Claude 모델에서 작동하나요?
프롬프트 캐싱은 cache_control 매개변수를 지원하는 Claude 모델에서 지원됩니다. 모델 호환성은 Anthropic API 문서를 확인하세요.
프롬프트 캐싱과 응답 캐싱의 차이점은 무엇인가요?
프롬프트 캐싱은 계산된 프리픽스를 캐시하는 모델의 네이티브 기능을 사용합니다. 응답 캐싱은 사용��가 직접 구현합니다 - 동일한 쿼리에 대한 전체 응답을 자신의 스토리지에 저장합니다.
캐시는 얼마나 오래 유지되나요?
Anthropic의 프롬프트 캐시는 일반적으로 5분 동�� 지속되지만, API 버전에 따라 다를 수 있습니다. 응답 캐싱 TTL은 사용자의 구현에 따라 결정됩니다.
0보다 큰 temperature로 응답을 캐시할 수 있나요?
0이 아닌 temperature로 응답을 캐시해서는 안 됩니다. 출력이 달라지기 때문에 캐시된 데이터가 신뢰할 수 없게 됩니다.

개발자 세부 정보

파일 구조

📄 SKILL.md