技能 context-optimization
📦

context-optimization

安全

优化上下文窗口

也可从以下获取: muratcankoylan,ChakshuGautam,Asmayaseen

上下文窗口限制了AI模型每次能处理的内容量。本技能提供了通过压缩、屏蔽、KV缓存优化和分区来最大化有效上下文容量的技术,可以有效将AI的处理能力提升一倍甚至两倍。

支持: Claude Codex Code(CC)
🥉 74 青铜
1

下载技能 ZIP

2

在 Claude 中上传

前往 设置 → 功能 → 技能 → 上传技能

3

开启并开始使用

测试它

正在使用“context-optimization”。 上下文利用率达85%,对话变得缓慢且昂贵

预期结果:

已应用压缩:将20条前消息总结为3个关键决策,上下文减少60%。已对第1-5轮的工具输出触发观察屏蔽。

正在使用“context-optimization”。 需要用32k上下文窗口处理50页文档

预期结果:

将文档分为4个部分。分配给隔离的子代理。聚合结果:所有部分已处理,最终摘要占用8k令牌。

正在使用“context-optimization”。 系统提示和工具定义在每个请求中重复

预期结果:

重新排序上下文:系统提示在前,然后是工具定义,最后是对话。实现75%的缓存命中率,延迟降低40%。

安全审计

安全
v1 • 2/24/2026

All 16 static findings are false positives. The skill is a documentation/guide containing code examples for context optimization. Python code snippets were incorrectly flagged as shell commands, and text patterns like 'MD5' in '3+ turns' and skill names were misidentified as security issues. No actual security risks present.

1
已扫描文件
187
分析行数
0
发现项
1
审计总数
未发现安全问题
审计者: claude

质量评分

38
架构
100
可维护性
87
内容
50
社区
100
安全
91
规范符合性

你能构建什么

长时间运行的AI代理

构建在扩展会话中保持上下文而不会触及令牌限制的生产级AI代理

大型文档处理

通过分区和聚合结果来处理大于上下文窗口的文档

成本降低

通过缓存和压缩策略减少令牌使用来降低API成本

试试这些提示

基本上下文检查
检查当前上下文利用率。如果超过70%,通过总结旧消息并保留关键决策来应用压缩。
工具输出屏蔽
对于3轮之前的工具输出,如果已经完成其用途,用只包含关键发现的紧凑引用替换它们。
缓存友好排序
重新排序上下文元素以最大化缓存命中:先放置系统提示和工具定义,然后是可重用内容,最后是唯一内容。
子代理分区
将当前任务拆分为独立的子任务。为每个子任务分配一个具有隔离上下文的单独子代理。全部完成后聚合结果。

最佳实践

  • 在优化前先测量 - 建立基线令牌使用和性能指标
  • 先应用压缩再屏蔽 - 总结比删除保留更多信号
  • 设计时考虑缓存稳定性 - 使用一致的格式并避免提示中的动态内容

避免

  • 过度压缩 - 压缩到50%以下会导致严重的质量损失
  • 屏蔽关键观察 - 永远不要屏蔽当前推理所需的数据
  • 忽略监控 - 没有测量的话优化效果会随时间下降

常见问题

这个技能真的能增加上下文窗口吗?
不能。本技能优化的是您使用可用上下文的方式,通过删除冗余和压缩数据让它感觉更大。
对话密集型任务的最佳优化策略是什么?
带总结的压缩效果最好。在保留关键决策和承诺的同时总结旧的对话轮次。
我可以期待多少令牌减少?
压缩可实现50-70%的减少,质量损失小于5%。屏蔽可实现被屏蔽观察60-80%的减少。
缓存是否适用于不同的对话?
前缀缓存仅在提示具有相同前缀时才有效。保持系统提示稳定以最大化缓存命中。
什么时候应该使用子代理分区?
当任务太复杂以至于一个上下文无法处理,或者子任务有冲突的上下文要求时使用分区。
我如何知道何时触发优化?
监控超过80%的令牌利用率、响应质量下降或延迟增加作为主要触发条件。

开发者详情

文件结构

📄 SKILL.md