技能 llm-application-dev-langchain-agent
🦜

llm-application-dev-langchain-agent

安全

使用 Claude 建構生產級 LangChain 智能體

建構生產級 LangChain 智能體需要具備非同步模式、狀態管理、記憶體系統和部署基礎設施的專業知識。此技能提供經過驗證的模式和最佳實踐,用於使用 LangChain 0.1+ 和 LangGraph 建立可擴展、可觀測的 AI 應用程式。

支援: Claude Codex Code(CC)
🥉 74 青銅
1

下載技能 ZIP

2

在 Claude 中上傳

前往 設定 → 功能 → 技能 → 上傳技能

3

開啟並開始使用

測試它

正在使用「llm-application-dev-langchain-agent」。 建立一個搜尋網頁並總結結果的 ReAct 智能體

預期結果:

產生完整的 Python 程式碼,包含 Claude LLM 初始化、Tavily 搜尋工具整合、具有錯誤處理的 StructuredTool、LangSmith 追蹤設定,以及具有重試邏輯的非同步 invoke 模式。

正在使用「llm-application-dev-langchain-agent」。 建立具有 Pinecone 和對話記憶體的 RAG 系統

預期結果:

實作 VoyageAI embeddings 設定、具有混合搜尋參數的 PineconeVectorStore、ConversationTokenBufferMemory 整合,以及具有上下文壓縮的檢索鏈。

安全審計

安全
v1 • 2/25/2026

Static analysis detected 39 patterns flagged as potential security risks, all are false positives. The 'external_commands' findings are markdown code fence backticks (lines 27-237) used for Python code examples, not Ruby shell execution. The 'blocker' findings flag 'Weak cryptographic algorithm' but these are legitimate Anthropic model names (claude-sonnet-4-5). The 'network' finding is an HTTP client reference in a code example. This is a documentation-only skill with no executable code.

1
已掃描檔案
249
分析行數
0
發現項
1
審計總數
未發現安全問題
審計者: claude

品質評分

38
架構
100
可維護性
87
內容
50
社群
100
安全
91
規範符合性

你能建構什麼

企業 RAG 應用程式

為企業知識庫建構具有混合搜尋、記憶體和可觀測性的文件問答系統

多智能體客戶服務

建立具有監督者的多智能體系統,針對不同客戶服務任務使用專門智能體

研究助理智能體

開發具有工具整合的智能體,用於網路搜尋、文件分析和綜合

試試這些提示

建立基本 ReAct 智能體
建立一個使用 Claude Sonnet 4.5 的 LangChain ReAct 智能體,可以 [task description]。包含非同步模式、使用 tenacity retry 的錯誤處理和 LangSmith 追蹤。
建構 RAG 管線
設計使用 Voyage AI embeddings 和 Pinecone 向量儲存區的 RAG 管線。實作使用 Cohere 進行重新排序的混合搜尋。包含使用權杖緩衝的對話記憶體。
多智能體編排
建立具有監督者的 LangGraph 多智能體系統,在 [agent types] 之間進行路由。使用 Command 路由,實作狀態管理,並為對話歷史新增檢查點。
生產部署
產生用於 LangChain 智能體部署的 FastAPI 伺服器,具有串流端點。包含 Prometheus 指標、使用 structlog 的結構化記錄、健康檢查和具有 TTL 的 Redis 快取。

最佳實務

  • 始終使用非同步模式(ainvoke、astream)以獲得更好的效能和併發性
  • 使用 tenacity retry 和指數退避實作全面的錯誤處理
  • 為所有智能體執行使用 LangSmith 追蹤以除錯和優化效能

避免

  • 避免在生產中使用同步 invoke 呼叫 - 始終使用非同步變體
  • 切勿硬編碼 API 金鑰或機密資訊 - 使用具有適當驗證的環境變數
  • 不要跳過記憶體管理 - 無界限的對話歷史會導致權杖溢位

常見問題

我應該為 LangChain 智能體使用哪個 LLM 模型?
Claude Sonnet 4.5(claude-sonnet-4-5)建議用於智慧與速度的最佳平衡。對於需要最大能力的複雜推理任務,請使用 Claude Opus 4.5。
LangChain 和 LangGraph 之間有什麼區別?
LangChain 提供用於建構 LLM 應用程式的鏈和工具。LangGraph 是一個較新的函式庫,用於使用基於圖形的工作流程建構有狀態的多參與者應用程式。對於複雜的智能體編排,請使用 LangGraph。
我如何為我的智能體選擇正確的記憶體類型?
對於大多數聊天應用程式,請使用 ConversationTokenBufferMemory。對於長對話,請使用 ConversationSummaryMemory。當需要對歷史進行語意搜尋時,請使用 VectorStoreRetrieverMemory。結合多種類型以獲得全面的上下文。
什麼嵌入模型最適合與 Claude 一起使用?
Voyage AI voyage-3-large 是 Anthropic 官方推薦的。對於程式碼特定任務,請使用 voyage-code-3;對於財務文件,請使用 voyage-finance-2;對於法律內容,請使用 voyage-law-2。
我如何在生產中監控智能體效能?
整合 LangSmith 以追蹤所有智能體執行。新增 Prometheus 指標用於請求、延遲、錯誤。使用 structlog 進行結構化記錄。為 LLM、工具和外部服務實作健康檢查。
我應該使用 ReAct 智能體還是自訂狀態圖?
對於一般工具使用,從 ReAct 智能體(create_react_agent)開始。當您需要複雜的多步驟工作流程、條件路由或多個智能體協同時,使用自訂 StateGraph。StateGraph 提供更多控制,但需要更多程式碼。