技能 embedding-strategies
📦
此技能帮助开发者选择和实施正确的嵌入模型进行向量搜索,提供OpenAI、Sentence Transformers和领域特定流水线的代码模板。
支持: Claude Codex Code(CC)
1
下载技能 ZIP
2
在 Claude 中上传
前往 设置 → 功能 → 技能 → 上传技能
3
开启并开始使用
测试它
正在使用“embedding-strategies”。 How do I choose between text-embedding-3-large and text-embedding-3-small?
预期结果:
- text-embedding-3-large: 3072维度, 8191令牌 - 适用于高精度需求
- text-embedding-3-small: 1536维度, 8191令牌 - 成本效益选项
- 复杂语义任务选择large,高容量应用选择small
正在使用“embedding-strategies”。 What is the best chunking strategy for code?
预期结果:
- 使用tree-sitter解析代码结构
- 按函数、类和方法分块
- 包含周围上下文以提高检索效果
- 考虑语言特定的分隔符
安全审计
安全v1 • 2/24/2026
This skill provides educational content about embedding strategies for RAG applications. All static findings are false positives: code blocks are markdown documentation examples, URLs are legitimate documentation links, and no cryptographic algorithms or system reconnaissance behavior is present. Safe for publication.
1
已扫描文件
494
分析行数
0
发现项
1
审计总数
未发现安全问题
审计者: claude
质量评分
38
架构
100
可维护性
87
内容
50
社区
100
安全
100
规范符合性
你能构建什么
构建RAG应用
为检索增强生成设置嵌入流水线,包含最佳分块和模型选择
比较嵌入模型
根据维度、成本和特定领域的性能评估不同的嵌入模型
优化向量搜索
通过适当的预处理、分块和嵌入配置提高语义搜索质量
试试这些提示
基础嵌入设置
教我如何开始使用OpenAI嵌入进行RAG应用。包括批处理和维度缩减。
本地嵌入模型
如何使用sentence-transformers设置本地嵌入模型?包含BGE和E5模型及适当的预处理。
分块策略
技术文档应该使用什么分块策略?包含基于令牌的、基于句子的和语义方法。
质量评估
如何评估检索嵌入的质量?展示精确率、召回率、MRR和NDCG等指标。
最佳实践
- 将嵌入模型与您的特定用例匹配(代码、散文、多语言)
- 使用余弦相似度检索时对嵌入进行归一化
- 缓存嵌入以避免重复查询时重新计算
避免
- 为您的领域使用错误的模型(例如,代码使用通用嵌入)
- 忽略令牌限制导致截断和信息丢失
- 在生产环境中混用嵌入模型导致向量空间不兼容
常见问题
RAG的最佳嵌入模型是什么?
text-embedding-3-small为大多数RAG应用提供了最佳的成本和质量平衡。在需要最高精度时使用text-embedding-3-large。
如何处理长文档?
使用基于令牌或语义分块将文档分割成块。每块目标256-512个令牌,并重叠以保留上下文。
可以离线使用嵌入吗?
可以,使用sentence-transformers模型如BGE或E5。它们在本地运行但需要更多设置和计算资源。
如何减少嵌入维度?
OpenAI的text-embedding-3模型支持原生维度缩减。对于其他模型,使用PCA或俄罗斯套娃表示学习。
应该跟踪哪些指标?
跟踪precision@k、recall@k、MRR和NDCG以评估检索质量。同时监控延迟和每个嵌入的成本。
如何处理多语言内容?
使用多语言模型如multilingual-e5-large或OpenAI的新模型,它们原生支持100多种语言。