올바른 임베딩 모델과 청킹 전략 선택은 검색 품질에 매우 중요합니다. 이 스킬은 고품질 벡터 검색 파이프라인을 구현하기 위한 템플릿과 모범 사례를 제공합니다.
下载技能 ZIP
在 Claude 中上传
前往 设置 → 功能 → 技能 → 上传技能
开启并开始使用
测试它
正在使用“embedding-strategies”。 Recommend an embedding model for a legal document search system. I need high accuracy and can use API services.
预期结果:
- Recommended: text-embedding-3-large (3072 dimensions) or voyage-2 (1024 dimensions)
- text-embedding-3-large: Best accuracy, handles 8191 tokens, ideal for long legal clauses
- voyage-2: Specialized for legal/code, 1024 dimensions, 4000 token limit
- Consider chunking legal documents by section headers to preserve clause context
正在使用“embedding-strategies”。 How should I chunk my technical documentation for a RAG system?
预期结果:
- Strategy: Use semantic chunking by headers combined with recursive character splitting
- Recommended chunk size: 512 tokens with 50 token overlap
- Preserve code examples as complete chunks
- Add context metadata linking chunks to original sections
安全审计
低风险All static findings are false positives. C2 keyword alerts triggered by hash hex strings. Weak crypto alerts from hash substrings. External command alerts from ASCII flow diagrams using arrows. Hardcoded URL alerts are legitimate documentation links. No malicious code, command execution, or data exfiltration patterns found.
质量评分
你能构建什么
RAG 시스템 구축
문서 컬렉션에 적합한 임베딩 모델과 청킹 전략을 선택하여 검색 증강 생성을 구현합니다.
의미론적 검색 최적화
콘텐츠 유형에 맞는 임베딩 모델을 선택하고 적절한 청킹 및 전처리를 구현하여 검색 관련성을 개선합니다.
임베딩 파이프라인 생성
문서를 처리하고, 콘텐츠를 청킹하며, 임베딩을 생성하고, 벡터 데이터베이스용 레코드를 준비하는 확장 가능한 파이프라인을 구축합니다.
试试这些提示
I need to choose an embedding model for my [use case: code search / multilingual documents / legal contracts]. My priorities are [priority: accuracy / cost / speed]. I have [constraints: limit on dimensions / need open source / need API access]. Recommend 3 models with rationale.
Help me implement chunking for my [data type: technical documentation / conversational data / code]. I need to handle [requirement: preserve context / maintain semantic boundaries / limit chunk size]. Provide Python code for [strategy: token-based / sentence-based / recursive character] chunking.
Create a Python pipeline that [input: processes documents from source / generates embeddings / stores in vector database]. Include [feature: batching / progress tracking / metadata handling]. Use [model: OpenAI embeddings / sentence-transformers].
My embedding-based retrieval has [problem: low recall / inconsistent results / poor precision]. My setup uses [model details]. Analyze potential causes and suggest improvements for [metric: precision at k / recall / ndcg].
最佳实践
- 임베딩 모델을 콘텐츠 유형(코드, 산문, 다국어)에 맞게 선택
- 안정한 코사인 유사도 비교를 위해 임베딩 정규화
- 청크 경계를 넘어 맥락을 유지하기 위해 토큰 오버랩 사용
避免
- 동일한 인덱스에서 서로 다른 임베딩 모델 혼합 사용
- 토큰 제한을 무시하고 콘텐츠를 생각 중간에 자름
- 전처리를 건너뛰어 노이즈가 임베딩 품질 저하 유발
常见问题
어떤 임베딩 모델로 시작해야 하나요?
청크 크기는 어떻게 선택하나요?
로컬 임베딩 모델을 사용할 수 있나요?
임베딩 품질은 어떻게 평가하나요?
임베딩을 정규화해야 하나요?
어떤 전처리를 적용해야 하나요?
开发者详情
作者
wshobson许可证
MIT
仓库
https://github.com/wshobson/agents/tree/main/plugins/llm-application-dev/skills/embedding-strategies引用
main
文件结构
📄 SKILL.md