ai-product
打造生產級 AI 產品
將 AI 演示轉換為生產系統。本技能教授 LLM 整合模式、RAG 架構和驗證策略,讓你能夠交付可大規模運作的 AI 功能。
下載技能 ZIP
在 Claude 中上傳
前往 設定 → 功能 → 技能 → 上傳技能
開啟並開始使用
測試它
正在使用「ai-product」。 協助我設計一個客戶支援 AI,在向使用者回應前驗證所有輸出
預期結果:
這是你的客戶支援 AI 的生產級架構:
**提示詞結構**:系統提示詞包含嚴格的輸出格式指令,使用者查詢使用帶有驗證掛鉤的範本
**驗證層**:
1. 架構驗證 - 確保回應符合預期的 JSON 結構
2. 安全檢查 - 在回應前掃描有害內容
3. 事實驗證 - 與知識庫交叉核對主張
4. 格式執行 - 驗證回應長度和結構
**錯誤處理**:當信心度低時優雅降級,回退到人工客服
正在使用「ai-product」。 我的 LLM 太慢了。如何改善感知延遲?
預期結果:
使用以下技術實作串流:
1. **Server-Sent Events (SSE)**:在產生時串流 token
2. **漸進式 UI**:先顯示骨架,內容到達時再填入
3. **樂觀更新**:在 AI 產生時顯示可能的回應
4. **分塊產生**:將複雜回應分解為較小的片段
這可以在不加快模型回應速度的情況下,將感知延遲降低 40-60%。
安全審計
安全Static analysis detected 2 false positive patterns related to 'weak cryptographic algorithm' at lines 3 and 58. These are misidentified keywords ('patterns', 'architecture') in documentation text. This is a documentation-only skill with no executable code, network calls, scripts, filesystem access, or external commands. Safe for publication.
偵測到的模式
品質評分
你能建構什麼
設計 LLM 應用程式架構
設計使用 LLM 的生產系統,具備適當的驗證和錯誤處理,安全可靠地運作。
驗證 AI 輸出
實作安全系統和驗證層,在提供給使用者之前捕捉幻覺和有害內容。
優化 AI 成本
透過提示詞優化、上下文管理和高效 token 使用,降低 80% 的 LLM API 成本。
試試這些提示
我需要建構一個 AI 驅動的功能來 [描述使用情境]。協助我設計生產級架構,包括:1) 如何建構提示詞以確保可靠性 2) 需要哪些驗證層 3) 如何優雅地處理失敗 4) 成本優化策略
審查此提示詞以進行生產部署:[插入提示詞]。識別:1) 潛在失敗模式 2) 遺漏的驗證步驟 3) 上下文視窗優化機會 4) 成本疑慮
我的 AI 系統在 [特定情境] 中產生幻覺。目前的提示詞是 [插入提示詞]。建議修改以減少幻覺同時維持準確性。
我需要我的 LLM 回傳 [描述期望的輸出格式]。協助我:1) 設計架構 2) 撰寫帶有適當指令的提示詞 3) 新增驗證邏輯 4) 優雅地處理解析失敗
最佳實務
- 將提示詞視為程式碼:版本控制、在 CI/CD 中測試、透過 pull request 審查變更
- 在使用前始終透過架構驗證和安全檢查驗證 LLM 輸出
- 建立深度防禦:多層驗證能捕捉單一檢查遺漏的問題
避免
- 在未經生產強化下發布 AI 演示 - 使用者將在大規模時遇到失敗
- 將無關資料塞滿上下文視窗 - 增加成本並降低準確性
- 未經驗證就信任 LLM 輸出 - 幻覺將影響生產環境的使用者