rag-engineer
Construire des systèmes RAG prêts pour la production
Les systèmes RAG échouent souvent en raison de stratégies de chunking médiocres et de récupération naïve. Cette compétence fournit des modèles experts pour le chunking sémantique, la recherche hybride et l'optimisation du contexte afin de construire des systèmes de récupération de qualité production.
Télécharger le ZIP du skill
Importer dans Claude
Allez dans Paramètres → Capacités → Skills → Importer un skill
Activez et commencez à utiliser
Tester
Utilisation de "rag-engineer". How should I chunk PDF documents with headers and tables for a RAG system?
Résultat attendu:
Use semantic chunking that respects document structure: (1) Parse PDF to extract headers, paragraphs, and table boundaries, (2) Chunk at paragraph level while preserving header metadata, (3) Include 10-20% overlap between chunks for context continuity, (4) Store structural metadata for filtering during retrieval. This approach maintains meaning better than fixed-token chunking.
Utilisation de "rag-engineer". My RAG system returns relevant documents but the answers are still poor. How do I debug this?
Résultat attendu:
Separate retrieval evaluation from generation: (1) Check retrieval precision by inspecting top-k results manually, (2) Measure hit rate and MRR on a test set, (3) If retrieval looks good, the issue is in your prompt or LLM selection. Common fix: add a reranking step between initial retrieval and final generation.
Audit de sécurité
SûrAll 16 static findings evaluated as false positives. The skill is a legitimate RAG (Retrieval-Augmented Generation) engineering documentation skill. External commands flagged are markdown code fence syntax (backticks) showing JavaScript examples. Cryptographic and reconnaissance warnings match keywords in context of semantic search and data pipelines, not security-relevant code.
Problèmes critiques (3)
Score de qualité
Ce que vous pouvez construire
Construire un système de问答 documentaire
Créer un système de问答 alimenté par RAG qui récupère avec précision le contexte pertinent à partir de grandes collections de documents
Améliorer la précision RAG existante
Diagnostiquer et résoudre les problèmes de qualité de récupération dans une implémentation RAG existante en utilisant un chunking avancé et une recherche hybride
Concevoir un système de raisonnement multi-sauts
Architecturer un système capable de répondre à des questions complexes nécessitant des informations provenant de plusieurs documents sources
Essayez ces prompts
Comment dois-je chunker mon [type de document] pour un système RAG ? Quelles stratégies préservent le sens et le contexte ?
Concevoir un système de recherche hybride qui combine la correspondance de mots-clés BM25 avec la similarité vectorielle. Comment fusionner les scores ?
Comment évaluer mon système de récupération séparément de la génération LLM ? Quelles métriques dois-je suivre ?
Mon contexte récupéré dépasse la fenêtre de contexte LLM. Comment sélectionner les chunks les plus pertinents tout en préservant la cohérence ?
Bonnes pratiques
- Toujours évaluer la qualité de récupération séparément de la génération en utilisant des métriques comme le hit rate et le MRR
- Utiliser le chunking sémantique qui respecte la structure du document plutôt que des comptages de tokens fixes
- Implémenter la recherche hybride pour combiner la compréhension sémantique avec la correspondance exacte de mots-clés
Éviter
- Utiliser le chunking de taille fixe quelle que soit la structure du contenu - cela coupe les phrases et perd le sens
- Tout embedder sans filtrer - augmente les coûts et réduit la pertinence
- Skipper l'évaluation de la récupération - supposer que les problèmes de génération sont toujours des problèmes de LLM