이 스킬은 개발자가 벡터 검색에 적합한 임베딩 모델을 선택하고 구현할 수 있도록 도우며, OpenAI, Sentence Transformers, 도메인별 파이프라인을 위한 코드 템플릿을 제공합니다.
스킬 ZIP 다운로드
Claude에서 업로드
설정 → 기능 → 스킬 → 스킬 업로드로 이동
토글을 켜고 사용 시작
테스트해 보기
"embedding-strategies" 사용 중입니다. text-embedding-3-large와 text-embedding-3-small 중 어떻게 선택해야 하나요?
예상 결과:
- text-embedding-3-large: 3072 차원, 8191 토큰 - 높은 정확도가 필요한 경우에 최적
- text-embedding-3-small: 1536 차원, 8191 토큰 - 비용 효율적인 옵션
- 복잡한 시맨틱 작업에는 large, 대용량 애플리케이션에는 small 선택
"embedding-strategies" 사용 중입니다. 코드에 가장 좋은 청킹 전략은 무엇인가요?
예상 결과:
- tree-sitter를 사용하여 코드 구조 분석
- 함수, 클래스, 메서드별 청킹
- 더 나은 검색을 위해 주변 컨텍스트 포함
- 언어별 구분자 고려
보안 감사
안전This skill provides educational content about embedding strategies for RAG applications. All static findings are false positives: code blocks are markdown documentation examples, URLs are legitimate documentation links, and no cryptographic algorithms or system reconnaissance behavior is present. Safe for publication.
품질 점수
만들 수 있는 것
RAG 애플리케이션 구축
최적의 청킹과 모델 선택으로 검색 증강 생성을 위한 임베딩 파이프라인 설정
임베딩 모델 비교
특정 도메인별 차원, 비용, 성능을 기준으로 다양한 임베딩 모델 평가
벡터 검색 최적화
적절한 전처리, 청킹, 임베딩 구성을 통한 시맨틱 검색 품질 개선
이 프롬프트를 사용해 보세요
RAG 애플리케이션을 위한 OpenAI 임베딩 시�� 방법을 보여주세요. 배칭과 차원 축소를 포함해주세요.
sentence-transformers를 사용하여 로컬 임베딩 모델을 설정하는 방법은 무엇인가요? 적절한 전처리가 포함된 BGE 및 E5 모델을 포함해주세요.
기술 문서에 어떤 청킹 전략을 사용해야 하나요? 토큰 기반, 문장 기반, 시맨틱 방식을 포함해주세요.
검색을 위해 임베딩 품질을 평가하는 방법은 무엇인가요? 정밀도, 재현율, MRR, NDCG와 같은 메트릭을 보여주세요.
모범 사례
- 임베딩 모델을 특정 사용 사례(코드, 산문, 다국어)에 맞게 선택
- 코사인 유사도를 사용한 검색 시 임베딩 정규화
- 반복 쿼리에 대한 재계산 방지를 위해 임베딩 캐싱
피하기
- 도메인에 잘못된 모델 사용(예: 코드용 일반 임베딩)
- 토큰 제한 무시로 인한 잘림 및 정보 손실
- 호환되지 않는 벡터 공간 생성이 되는 프로덕션 환경의 임베딩 모델 혼합