スキル prompt-caching
📦

prompt-caching

安全

Optimiza los Costos de LLM con Caché de Prompts

Reduce los costos de API de LLM hasta en un 90% mediante la implementación estratégica de caché de prompts, incluyendo caché nativo de Anthropic, caché de respuestas y patrones CAG.

対応: Claude Codex Code(CC)
🥉 72 ブロンズ
1

スキルZIPをダウンロード

2

Claudeでアップロード

設定 → 機能 → スキル → スキルをアップロードへ移動

3

オンにして利用開始

テストする

「prompt-caching」を使用しています。 How do I reduce my LLM API costs?

期待される結果:

Puedes reducir los costos de API de LLM implementando caché de prompts. Las principales estrategias son: 1) Usa el caché nativo de prompts de Anthropic para prompts de sistema repetidos: esto almacena en caché el prefijo del prompt para que solo pagues por los nuevos tokens. 2) Implementa caché de respuestas para consultas idénticas: almacena el hash del prompt y devuelve la respuesta en caché. 3) Usa Generación Aumentada con Caché (CAG) para pre-almacenar documentos en caché en lugar de realizar recuperación RAG cada vez.

「prompt-caching」を使用しています。 Why is my cache not working?

期待される結果:

Razones comunes por las que falla el caché de prompts: 1) Usar temperatura distinta de cero: las respuestas en caché varían. 2) Cambiar prefijos de prompt con frecuencia: el caché depende de una coincidencia exacta del prefijo. 3) No usar correctamente el header cache-control. 4) Exceder el TTL del caché (típicamente 5 minutos para Anthropic).

セキュリティ監査

安全
v1 • 2/24/2026

All static findings are false positives. The skill is a markdown documentation file with no executable code. The external_commands detections are markdown backticks used for code formatting. The weak cryptographic algorithm detections are misinterpretations of YAML frontmatter content. No actual security risks present.

1
スキャンされたファイル
66
解析された行数
0
検出結果
1
総監査数
セキュリティ問題は見つかりませんでした
監査者: claude

品質スコア

38
アーキテクチャ
100
保守性
87
コンテンツ
32
コミュニティ
100
セキュリティ
100
仕様準拠

作れるもの

Reducir Costos de API para Aplicaciones de Producción

Implementa caché de prompts para reducir drásticamente los costos de API de LLM en sistemas de producción con contexto repetido

Optimizar Conversaciones de Larga Duración

Usa caché para mantener el contexto de conversación sin incurrir en costos completos de contexto en cada mensaje

Mejorar la Latencia de Respuesta

Aprovecha las respuestas en caché para lograr tiempos de respuesta más rápidos para consultas repetidas

これらのプロンプトを試す

Configuración Básica de Caché de Prompts
How do I set up prompt caching with Claude API? Show me the basic implementation steps.
Estrategia de Caché de Respuestas
Design a response caching strategy for a Q&A system that handles similar user queries. Include cache key design and invalidation logic.
Guía de Implementación de CAG
Explain Cache Augmented Generation (CAG) and provide a Python implementation pattern for pre-caching documents.
Mejores Prácticas de Invalidación de Caché
What are the best practices for cache invalidation in LLM applications? Include time-based and event-based strategies.

ベストプラクティス

  • Estructura los prompts con prefijos estáticos que permanezcan consistentes entre solicitudes
  • Usa temperatura cero cuando almacenes respuestas en caché para coincidencias exactas
  • Implementa una invalidación adecuada del caché con activadores basados en tiempo o eventos
  • Monitorea las tasas de aciertos de caché y optimiza la estructura del prefijo en consecuencia

回避

  • Almacenar en caché respuestas con configuraciones de temperatura alta: las salidas variarán y los datos en caché se volverán inútiles
  • Almacenar en caché sin ninguna estrategia de invalidación: los datos obsoletos conducen a respuestas incorrectas
  • Almacenar todo en caché indiscriminadamente: aumenta la latencia en los fallos de caché sin beneficio proporcional

よくある質問

¿Qué es el caché de prompts?
El caché de prompts es una técnica que almacena el estado computado de un prefijo de prompt para que pueda ser reutilizado en múltiples solicitudes, reduciendo el número de tokens procesados y disminuyendo los costos.
¿Cuánto puedo ahorrar con el caché de prompts?
Los usuarios reportan reducciones de costos del 50-90% dependiendo de cuánto de tus prompts puede ser almacenado en caché como prefijos estables.
¿El caché de prompts funciona con todos los modelos de Claude?
El caché de prompts es compatible con modelos de Claude que soportan el parámetro cache_control. Consulta la documentación de la API de Anthropic para ver la compatibilidad de modelos.
¿Cuál es la diferencia entre caché de prompts y caché de respuestas?
El caché de prompts usa la capacidad nativa del modelo para almacenar en caché prefijos computados. El caché de respuestas lo implementas tú: almacenando respuestas completas para consultas idénticas en tu propio almacenamiento.
¿Cuánto dura el caché?
El caché de prompts de Anthropic típicamente dura 5 minutos, pero esto varía según la versión de la API. El TTL del caché de respuestas lo determina tu implementación.
¿Puedo almacenar en caché respuestas con temperatura mayor a 0?
No debes almacenar en caché respuestas con temperatura distinta de cero porque las salidas variarán, haciendo que los datos en caché no sean confiables.

開発者の詳細

ファイル構成

📄 SKILL.md