Compétences rag-engineer
📦

rag-engineer

Sûr

Construire des systèmes RAG prêts pour la production

Les systèmes RAG échouent souvent en raison de stratégies de chunking médiocres et de récupération naïve. Cette compétence fournit des modèles experts pour le chunking sémantique, la recherche hybride et l'optimisation du contexte afin de construire des systèmes de récupération de qualité production.

Prend en charge: Claude Codex Code(CC)
⚠️ 64 Médiocre
1

Télécharger le ZIP du skill

2

Importer dans Claude

Allez dans Paramètres → Capacités → Skills → Importer un skill

3

Activez et commencez à utiliser

Tester

Utilisation de "rag-engineer". How should I chunk PDF documents with headers and tables for a RAG system?

Résultat attendu:

Use semantic chunking that respects document structure: (1) Parse PDF to extract headers, paragraphs, and table boundaries, (2) Chunk at paragraph level while preserving header metadata, (3) Include 10-20% overlap between chunks for context continuity, (4) Store structural metadata for filtering during retrieval. This approach maintains meaning better than fixed-token chunking.

Utilisation de "rag-engineer". My RAG system returns relevant documents but the answers are still poor. How do I debug this?

Résultat attendu:

Separate retrieval evaluation from generation: (1) Check retrieval precision by inspecting top-k results manually, (2) Measure hit rate and MRR on a test set, (3) If retrieval looks good, the issue is in your prompt or LLM selection. Common fix: add a reranking step between initial retrieval and final generation.

Audit de sécurité

Sûr
v1 • 2/24/2026

All 16 static findings evaluated as false positives. The skill is a legitimate RAG (Retrieval-Augmented Generation) engineering documentation skill. External commands flagged are markdown code fence syntax (backticks) showing JavaScript examples. Cryptographic and reconnaissance warnings match keywords in context of semantic search and data pipelines, not security-relevant code.

1
Fichiers analysés
95
Lignes analysées
3
résultats
1
Total des audits

Problèmes critiques (3)

External Commands - False Positive
Markdown code fence syntax (backticks) containing JavaScript code examples. Lines 38-91 contain documentation examples for semantic chunking, hierarchical retrieval, and hybrid search implementations. No actual shell or Ruby execution.
Weak Cryptographic Algorithm - False Positive
Scanner incorrectly matches keywords: 'generation' (in Retrieval-Augmented Generation), 'pipeline' (data pipeline), 'execute' (workflow). No cryptographic code present.
System Reconnaissance - False Positive
Scanner flags 'search' in context of semantic search and hybrid search. This is vector search in RAG systems, not network reconnaissance.
Audité par: claude

Score de qualité

38
Architecture
100
Maintenabilité
87
Contenu
31
Communauté
55
Sécurité
100
Conformité aux spécifications

Ce que vous pouvez construire

Construire un système de问答 documentaire

Créer un système de问答 alimenté par RAG qui récupère avec précision le contexte pertinent à partir de grandes collections de documents

Améliorer la précision RAG existante

Diagnostiquer et résoudre les problèmes de qualité de récupération dans une implémentation RAG existante en utilisant un chunking avancé et une recherche hybride

Concevoir un système de raisonnement multi-sauts

Architecturer un système capable de répondre à des questions complexes nécessitant des informations provenant de plusieurs documents sources

Essayez ces prompts

Requête de pattern RAG basique
Comment dois-je chunker mon [type de document] pour un système RAG ? Quelles stratégies préservent le sens et le contexte ?
Implémentation de recherche hybride
Concevoir un système de recherche hybride qui combine la correspondance de mots-clés BM25 avec la similarité vectorielle. Comment fusionner les scores ?
Évaluation de la récupération
Comment évaluer mon système de récupération séparément de la génération LLM ? Quelles métriques dois-je suivre ?
Optimisation de la fenêtre de contexte
Mon contexte récupéré dépasse la fenêtre de contexte LLM. Comment sélectionner les chunks les plus pertinents tout en préservant la cohérence ?

Bonnes pratiques

  • Toujours évaluer la qualité de récupération séparément de la génération en utilisant des métriques comme le hit rate et le MRR
  • Utiliser le chunking sémantique qui respecte la structure du document plutôt que des comptages de tokens fixes
  • Implémenter la recherche hybride pour combiner la compréhension sémantique avec la correspondance exacte de mots-clés

Éviter

  • Utiliser le chunking de taille fixe quelle que soit la structure du contenu - cela coupe les phrases et perd le sens
  • Tout embedder sans filtrer - augmente les coûts et réduit la pertinence
  • Skipper l'évaluation de la récupération - supposer que les problèmes de génération sont toujours des problèmes de LLM

Foire aux questions

Qu'est-ce que le chunking sémantique ?
Le chunking sémantique divise les documents par sens plutôt que par nombres de tokens arbitraires. Il utilise la similarité d'embedding pour détecter les changements de sujets et préserve la structure du document comme les titres et les paragraphes.
Quand dois-je utiliser la recherche hybride ?
Utilisez la recherche hybride lorsque les requêtes contiennent des termes spécifiques (noms, codes, phrases exactes) aux côtés de concepts sémantiques. Elle combine BM25 pour la correspondance de mots-clés avec la similarité vectorielle pour la compréhension sémantique.
Comment évaluer la qualité de récupération RAG ?
Utilisez des métriques comme le hit rate (documents pertinents dans le top-k), le mean reciprocal rank (qualité du classement) et le recall. Créez un ensemble de test de requêtes avec des documents pertinents de référence.
Qu'est-ce que le reciprocal rank fusion ?
Le Reciprocal Rank Fusion (RRF) combine les classements de plusieurs méthodes de récupération. Il convertit les classements en scores en utilisant 1/(rank + k) et les additionne, donnant un classement unifié sans normalisation des scores.
Comment gérer les longs documents qui dépassent les fenêtres de contexte ?
Utilisez la récupération hiérarchique : indexez à plusieurs granularités (paragraphe, section, document), récupérez d'abord les résultats grossiers, puis récupérez les chunks fins à partir des sections pertinentes.
Quel modèle d'embedding dois-je utiliser ?
Choisissez en fonction de votre cas d'utilisation. Les modèles généralistes fonctionnent pour la plupart des cas. Des modèles spécialisés existent pour le code, le texte scientifique ou le contenu multilingue. Testez toujours sur vos données spécifiques.

Détails du développeur

Structure de fichiers

📄 SKILL.md