技能 embedding-strategies
📦

embedding-strategies

安全

优化语义搜索的嵌入

也可从以下获取: wshobson

此技能帮助开发者选择和实施正确的嵌入模型进行向量搜索,提供OpenAI、Sentence Transformers和领域特定流水线的代码模板。

支持: Claude Codex Code(CC)
🥉 75 青铜
1

下载技能 ZIP

2

在 Claude 中上传

前往 设置 → 功能 → 技能 → 上传技能

3

开启并开始使用

测试它

正在使用“embedding-strategies”。 How do I choose between text-embedding-3-large and text-embedding-3-small?

预期结果:

  • text-embedding-3-large: 3072维度, 8191令牌 - 适用于高精度需求
  • text-embedding-3-small: 1536维度, 8191令牌 - 成本效益选项
  • 复杂语义任务选择large,高容量应用选择small

正在使用“embedding-strategies”。 What is the best chunking strategy for code?

预期结果:

  • 使用tree-sitter解析代码结构
  • 按函数、类和方法分块
  • 包含周围上下文以提高检索效果
  • 考虑语言特定的分隔符

安全审计

安全
v1 • 2/24/2026

This skill provides educational content about embedding strategies for RAG applications. All static findings are false positives: code blocks are markdown documentation examples, URLs are legitimate documentation links, and no cryptographic algorithms or system reconnaissance behavior is present. Safe for publication.

1
已扫描文件
494
分析行数
0
发现项
1
审计总数
未发现安全问题
审计者: claude

质量评分

38
架构
100
可维护性
87
内容
50
社区
100
安全
100
规范符合性

你能构建什么

构建RAG应用

为检索增强生成设置嵌入流水线,包含最佳分块和模型选择

比较嵌入模型

根据维度、成本和特定领域的性能评估不同的嵌入模型

优化向量搜索

通过适当的预处理、分块和嵌入配置提高语义搜索质量

试试这些提示

基础嵌入设置
教我如何开始使用OpenAI嵌入进行RAG应用。包括批处理和维度缩减。
本地嵌入模型
如何使用sentence-transformers设置本地嵌入模型?包含BGE和E5模型及适当的预处理。
分块策略
技术文档应该使用什么分块策略?包含基于令牌的、基于句子的和语义方法。
质量评估
如何评估检索嵌入的质量?展示精确率、召回率、MRR和NDCG等指标。

最佳实践

  • 将嵌入模型与您的特定用例匹配(代码、散文、多语言)
  • 使用余弦相似度检索时对嵌入进行归一化
  • 缓存嵌入以避免重复查询时重新计算

避免

  • 为您的领域使用错误的模型(例如,代码使用通用嵌入)
  • 忽略令牌限制导致截断和信息丢失
  • 在生产环境中混用嵌入模型导致向量空间不兼容

常见问题

RAG的最佳嵌入模型是什么?
text-embedding-3-small为大多数RAG应用提供了最佳的成本和质量平衡。在需要最高精度时使用text-embedding-3-large。
如何处理长文档?
使用基于令牌或语义分块将文档分割成块。每块目标256-512个令牌,并重叠以保留上下文。
可以离线使用嵌入吗?
可以,使用sentence-transformers模型如BGE或E5。它们在本地运行但需要更多设置和计算资源。
如何减少嵌入维度?
OpenAI的text-embedding-3模型支持原生维度缩减。对于其他模型,使用PCA或俄罗斯套娃表示学习。
应该跟踪哪些指标?
跟踪precision@k、recall@k、MRR和NDCG以评估检索质量。同时监控延迟和每个嵌入的成本。
如何处理多语言内容?
使用多语言模型如multilingual-e5-large或OpenAI的新模型,它们原生支持100多种语言。

开发者详情

文件结构

📄 SKILL.md