المهارات langchain-architecture
📦

langchain-architecture

آمن

Construire des applications LLM avec LangChain

متاح أيضًا من: sickn33,wshobson

Cette compétence aide les développeurs à concevoir et implémenter des applications LLM de niveau production en utilisant les modèles du framework LangChain pour les agents, chaînes, mémoire et intégration d'outils.

يدعم: Claude Codex Code(CC)
🥉 74 برونزي
1

تنزيل ZIP المهارة

2

رفع في Claude

اذهب إلى Settings → Capabilities → Skills → Upload skill

3

فعّل وابدأ الاستخدام

اختبرها

استخدام "langchain-architecture". Comment choisir le bon type de mémoire pour mon agent LangChain ?

النتيجة المتوقعة:

Pour des conversations courtes de moins de 10 messages, utilisez ConversationBufferMemory pour stocker tous les messages. Pour des conversations plus longues, utilisez ConversationSummaryMemory pour résumer les anciens messages. Pour suivre des entités spécifiques, utilisez ConversationEntityMemory. Pour la récupération sémantique de l'historique pertinent, utilisez VectorStoreRetrieverMemory.

استخدام "langchain-architecture". Créez une chaîne multi-étapes qui extrait des entités, les analyse et génère un résumé.

النتيجة المتوقعة:

Utilisez SequentialChain avec trois composants LLMChain : extract_prompt extrait les entités, analyze_prompt les analyse, et summary_prompt génère le résumé final. Définissez output_variables pour capturer toutes les sorties intermédiaires et finales.

التدقيق الأمني

آمن
v1 • 2/25/2026

All 27 static findings are false positives. The skill contains Python code examples in markdown documentation. The scanner incorrectly identified 'external_commands' (markdown code blocks), 'weak cryptographic algorithm' (agent type constants containing 'DESCRIPTION'), and 'network reconnaissance' (use case descriptions). This is educational documentation about LangChain with no executable code, network requests, or cryptographic operations.

1
الملفات التي تم فحصها
351
الأسطر التي تم تحليلها
3
النتائج
1
إجمالي عمليات التدقيق
مشكلات منخفضة المخاطر (3)
External Commands Detection (False Positive)
Scanner detected 'Ruby/shell backtick execution' at 20 locations. These are Python code examples within markdown code blocks (e.g., `from langchain.agents import...`). No shell command execution exists.
Weak Cryptographic Algorithm Detection (False Positive)
Scanner flagged 'weak cryptographic algorithm' at 6 locations. These are LangChain AgentType constants (CONVERSATIONAL_REACT_DESCRIPTION, ZERO_SHOT_REACT_DESCRIPTION) - not cryptographic algorithms.
Network Reconnaissance Detection (False Positive)
Scanner flagged 'network reconnaissance' at SKILL.md:24. The line describes 'Building autonomous AI agents with tool access' - a legitimate use case, not network reconnaissance.
تم تدقيقه بواسطة: claude

درجة الجودة

38
الهندسة المعمارية
100
قابلية الصيانة
87
المحتوى
50
المجتمع
99
الأمان
91
الامتثال للمواصفات

ماذا يمكنك بناءه

Développeur d'applications IA

Construire des applications qui utilisent des agents LLM avec accès aux outils pour automatiser des flux de travail multi-étapes

Ingénieur de données

Créer des pipelines RAG qui combinent des documents internes avec les capacités LLM pour une interrogation intelligente

Ingénieur ML

Concevoir des systèmes LLM prêts pour la production avec une gestion appropriée de la mémoire, la gestion des erreurs et l'observabilité

جرّب هذه الموجهات

Configuration de base d'un agent
Créez un agent LangChain simple qui peut utiliser un outil de recherche et une calculatrice. Montrez comment initialiser l'agent, ajouter des outils et exécuter une requête.
Implémentation RAG
Montrez-moi comment construire un système de génération augmentée par récupération en utilisant LangChain. Incluez le chargement de documents, la division de texte, la création de vector store et la chaîne Q&R.
Configuration de la mémoire
Expliquez les différents types de mémoire dans LangChain et montrez le code pour implémenter ConversationBufferMemory, ConversationSummaryMemory et ConversationEntityMemory.
Déploiement en production
Quelles sont les meilleures pratiques pour déployer des applications LangChain en production ? Incluez la gestion des erreurs, les callbacks pour la surveillance, la limitation de débit et les stratégies de test.

أفضل الممارسات

  • Validez et assainissez toujours les entrées utilisateur avant de les passer aux chaînes LLM pour prévenir l'injection de prompt
  • Implémentez une gestion appropriée des erreurs avec des blocs try-catch autour des exécutions d'agents et de chaînes
  • Utilisez des callbacks pour la journalisation et la surveillance de l'utilisation des tokens, de la latence et des erreurs en production

تجنب

  • Ne dépassez pas les limites de la fenêtre de contexte - implémentez une troncature ou un résumé approprié de la mémoire
  • Évitez les descriptions d'outils mal définies - les agents s'appuient sur les descriptions pour sélectionner le bon outil
  • Ne sautez pas la validation des entrées - validez toutes les entrées utilisateur avant de les utiliser dans des chaînes ou des prompts

الأسئلة المتكررة

Qu'est-ce que LangChain ?
LangChain est un framework pour construire des applications LLM. Il fournit des abstractions pour les chaînes (séquences d'appels), les agents (systèmes qui utilisent des LLMs pour décider des actions), la mémoire (stockage de contexte) et les outils (fonctions que les agents peuvent appeler).
Ai-je besoin d'une clé API pour utiliser cette compétence ?
Oui, cette compétence vous aide à concevoir des applications LangChain mais vous aurez besoin d'une clé API OpenAI ou d'une clé d'un autre fournisseur LLM pour exécuter réellement les exemples de code.
Quelle est la différence entre un agent et une chaîne ?
Une chaîne est une séquence prédéterminée d'étapes. Un agent utilise un LLM pour décider dynamiquement quelles actions entreprendre, le rendant plus flexible pour des tâches complexes.
Comment ajouter de la mémoire à mon agent ?
Importez le type de mémoire dont vous avez besoin (comme ConversationBufferMemory), initialisez-le avec memory_key, et passez-le à l'agent via le paramètre memory lors de l'appel à initialize_agent.
Qu'est-ce que RAG dans LangChain ?
RAG (Retrieval-Augmented Generation) combine la récupération de documents avec la génération LLM. Utilisez des chargeurs de documents, des diviseurs de texte, des vector stores et des chaînes RetrievalQA pour construire cela.
Puis-je utiliser Claude ou Codex avec LangChain ?
Oui, LangChain prend en charge divers fournisseurs LLM. Vous pouvez utiliser ChatAnthropic pour les modèles Claude ou des interfaces compatibles OpenAI pour Codex.

تفاصيل المطور

بنية الملفات

📄 SKILL.md