المهارات embedding-strategies
📦

embedding-strategies

آمن

セマンティック検索のための埋め込み最適化

متاح أيضًا من: wshobson

このスキルは、開発者がベクトル検索に適した埋め込みモデルを選択し実装できるよう支援します。OpenAI、Sentence Transformers、およびドメイン固有のパイプライン用のコードテンプレートを提供します。

يدعم: Claude Codex Code(CC)
🥉 75 برونزي
1

تنزيل ZIP المهارة

2

رفع في Claude

اذهب إلى Settings → Capabilities → Skills → Upload skill

3

فعّل وابدأ الاستخدام

اختبرها

استخدام "embedding-strategies". text-embedding-3-large と text-embedding-3-small のどちらを選択すべきですか?

النتيجة المتوقعة:

  • text-embedding-3-large: 3072 次元、8191 トークン - 高精度が必要な場合に最適
  • text-embedding-3-small: 1536 次元、8191 トークン - コスト効率の良いオプション
  • 複雑なセマンティックタスクには large を、大量処理アプリケーションには small を選択

استخدام "embedding-strategies". コードに対する最適なチャンキング戦略は何ですか?

النتيجة المتوقعة:

  • tree-sitter を使用してコード構造を解析
  • 関数、クラス、メソッド単位でチャンキング
  • より良い検索のために周囲のコンテキストを含める
  • 言語固有のセパレータを検討

التدقيق الأمني

آمن
v1 • 2/24/2026

This skill provides educational content about embedding strategies for RAG applications. All static findings are false positives: code blocks are markdown documentation examples, URLs are legitimate documentation links, and no cryptographic algorithms or system reconnaissance behavior is present. Safe for publication.

1
الملفات التي تم فحصها
494
الأسطر التي تم تحليلها
0
النتائج
1
إجمالي عمليات التدقيق
لا توجد مشكلات أمنية
تم تدقيقه بواسطة: claude

درجة الجودة

38
الهندسة المعمارية
100
قابلية الصيانة
87
المحتوى
50
المجتمع
100
الأمان
100
الامتثال للمواصفات

ماذا يمكنك بناءه

RAG アプリケーションの構築

最適なチャンキングとモデル選択により、検索拡張生成のための埋め込みパイプラインを設定

埋め込みモデルの比較

特定のドメイン向けに、次元数、コスト、パフォーマンスに基づいて異なる埋め込みモデルを評価

ベクトル検索の最適化

適切な前処理、チャンキング、埋め込み設定により、セマンティック検索の品質を向上

جرّب هذه الموجهات

基本的な埋め込み設定
RAG アプリケーションで OpenAI 埋め込みを使用する方法を教えてください。バッチ処理と次元削減を含めてください。
ローカル埋め込みモデル
sentence-transformers を使用してローカル埋め込みモデルを設定するにはどうすればよいですか?適切な前処理とともに BGE および E5 モデルを含めてください。
チャンキング戦略
技術ドキュメントにはどのようなチャンキング戦略を使用すべきですか?トークンベース、文ベース、およびセマンティックなアプローチを含めてください。
品質評価
検索用の埋め込み品質を評価するにはどうすればよいですか?precision、recall、MRR、NDCG などの指標を示してください。

أفضل الممارسات

  • 埋め込みモデルを使用ケース(コード、文章、多言語)に合わせる
  • 検索にコサイン類似度を使用する場合は埋め込みを正規化
  • 繰り返しクエリに対して埋め込みをキャッシュして再計算を回避

تجنب

  • ドメインに間違ったモデルを使用(例:コードに一般用埋め込み)
  • トークン制限を無視して切り捨てと情報損失を引き起こす
  • 本番環境で埋め込みモデルを混在させて互換性のないベクトル空間を作成

الأسئلة المتكررة

RAG に最適な埋め込みモデルは何ですか?
ほとんどの RAG アプリケーションでは text-embedding-3-small がコストと品質の最適なバランスを提供します。最大の精度が必要な場合は text-embedding-3-large を使用してください。
長い文書はどのように処理すればよいですか?
トークンベースまたはセマンティックなチャンキングを使用して文書を分割します。コンテキストを保持するために、オーバーラップ付きで 1 チャンクあたり 256-512 トークンを目指します。
オフラインで埋め込みを使用できますか?
はい、BGE や E5 などの sentence-transformers モデルを使用できます。これらはローカルで実行されますが、より多くのセットアップと計算リソースが必要です。
埋め込み次元を削減するにはどうすればよいですか?
OpenAI の text-embedding-3 モデルはネイティブの次元削減をサポートしています。他のモデルでは、PCA または Matryoshka Representation Learning を使用してください。
どのような指標を追跡すべきですか?
検索品質については precision@k、recall@k、MRR、NDCG を追跡します。また、埋め込みあたりのレイテンシとコストも監視します。
多言語コンテンツはどのように処理すればよいですか?
multilingual-e5-large や 100 以上の言語をネイティブにサポートする OpenAI の新しいモデルなどの多言語モデルを使用してください。

تفاصيل المطور

بنية الملفات

📄 SKILL.md