技能 llm-application-dev-prompt-optimize
🎯

llm-application-dev-prompt-optimize

安全

運用進階工程技巧優化 LLM 提示

將基本指令轉化為生產級提示,提升 40% 準確率並降低 50-80% 成本。本技能提供思維鏈推理、憲法 AI 模式,以及針對 Claude、GPT 和 Gemini 的模型專屬優化專業指導。

支援: Claude Codex Code(CC)
🥉 74 青銅
1

下載技能 ZIP

2

在 Claude 中上傳

前往 設定 → 功能 → 技能 → 上傳技能

3

開啟並開始使用

測試它

正在使用「llm-application-dev-prompt-optimize」。 Optimize this prompt: 'Answer customer questions about refunds'

預期結果:

優化後的提示包含角色定義、診斷框架、解決方案傳遞結構、驗證步驟、約束條件和 JSON 輸出格式。包含思維鏈推理區段和自我審查清單以確保品質。

正在使用「llm-application-dev-prompt-optimize」。 Make this prompt better for data analysis: 'Analyze the sales data'

預期結果:

包含五個階段的綜合分析框架:資料驗證、具統計顯著性測試的趨勢分析、多維度區段分析、具信心評分的見解範本,以及 YAML 格式的優先建議事項。

安全審計

安全
v1 • 2/25/2026

Static analysis detected 62 potential security issues in code examples within documentation files. All findings are false positives - the detected patterns (Ruby backticks, MD5 references, reconnaissance commands) appear exclusively within markdown code blocks that demonstrate prompt engineering techniques. The skill contains no executable code, performs no file operations, network requests, or command execution. It is a documentation-only skill providing guidance on prompt optimization best practices.

2
已掃描檔案
632
分析行數
0
發現項
1
審計總數
未發現安全問題
審計者: claude

品質評分

38
架構
100
可維護性
87
內容
50
社群
100
安全
91
規範符合性

你能建構什麼

客戶服務提示優化

將基本客戶服務提示轉化為結構化、具同理心的回應系統,包含診斷推理框架、升級路徑和品質約束,確保一致且專業的服務互動。

資料分析提示增強

將簡單的資料分析請求升級為綜合分析框架,包含分階段驗證、統計顯著性測試、多維度區段分析,以及結構化 YAML 格式的高階主管報告。

程式碼生成安全改進

透過安全優先設計思維、輸入驗證要求、SOLID 原則和自我審查清單增強程式碼生成提示,防止注入漏洞並確保生產級程式碼。

試試這些提示

基本思維鏈提示
Analyze this step by step:

1. Identify the core problem
2. Break down into smaller components
3. Reason through each component carefully
4. Synthesize findings
5. Provide final answer with confidence level

Input: {your_input}
少樣本學習範本
Example 1:
Input: {simple_case}
Output: {correct_output}

Example 2:
Input: {edge_case}
Output: {correct_output}

Example 3:
Input: {error_case}
Wrong: {incorrect_output}
Correct: {correct_output}

Now apply to: {actual_input}
具備自我批判的憲法 AI
{task_instructions}

Review your response against these principles:
1. ACCURACY: Verify all claims, flag uncertainties
2. SAFETY: Check for harm, bias, ethical issues
3. QUALITY: Ensure clarity, consistency, completeness

Initial Response: [Generate]
Self-Review: [Evaluate against principles]
Final Response: [Refined based on review]
模型優化結構(Claude)
<context>
{background_information}
</context>

<task>
{clear_objective_with_constraints}
</task>

<thinking>
1. Understanding requirements...
2. Identifying components...
3. Planning approach...
</thinking>

<output_format>
{xml_structured_response_specification}
</output_format>

最佳實務

  • 務必在提示中定義明確的角色、上下文、任務和輸出格式
  • 對於複雜的多步驟問題使用思維鏈推理以提升準確性
  • 在少樣本學習中包含 3-5 個涵蓋典型、邊界和錯誤案例的多樣化範例
  • 針對安全關鍵應用實作具備憲法原則的自我批判迴圈

避免

  • 避免模糊指令如「分析這個」而未指定框架、輸出格式或成功標準
  • 不要使用未涵蓋邊界案例的單一範例,這會導致提示行為脆弱
  • 切勿在未經對抗性輸入、超出範圍查詢和邊界案例測試下部署提示
  • 避免模型無關的提示,應針對特定 LLM 優化結構(Claude 偏好 XML 標籤,GPT 偏好 ## 標頭)

常見問題

什麼是思維鏈提示,何時應該使用它?
思維鏈(CoT)提示將複雜問題分解為逐步推理。適用於需要邏輯推論、多步驟計算或系統化分析的任務。CoT 可將數學、邏輯和分析任務的推理準確性提升 25-40%。
我應該在少樣本學習中包含多少範例?
包含 3-5 個精心挑選的範例,涵蓋:簡單案例(預期行為)、邊界案例(邊界條件)和錯誤案例(應避免的情況)。品質比數量更重要,每個範例都應教導預期行為的不同面向。
什麼是憲法 AI,為何它很重要?
憲法 AI 將原則(準確性、安全性、品質)嵌入提示中並配合自我批判迴圈。模型生成初始回應、根據原則評估並據此優化。這可減少 40% 的有害輸出,對於生產應用至關重要。
我應該針對 Claude 和 GPT 採用不同的提示優化策略嗎?
是的。Claude 在使用 XML 標籤(<context>、<task>、<output_format>)和明確推理區段時表現最佳。GPT-4/5 偏好 ## 標頭和 JSON 結構。Gemini 對 **粗體** 區段標記和明確約束回應良好。務必針對目標模型調整語法。
如何衡量我的提示優化是否有效?
使用 LLM-as-judge 評估,包含 20 個測試案例(10 個典型、5 個邊界、3 個對抗性、2 個超出範圍)。針對任務完成度、準確性、推理、格式符合度和安全性進行評分。持續追蹤成功率、代幣效率和成本。與原始提示進行 48 小時的 A/B 測試。
有哪些常見的提示優化錯誤應避免?
常見錯誤:省略輸出格式規格(導致回應不一致)、使用模糊語言(導致不同解讀)、跳過邊界案例範例(造成脆弱行為)、未經對抗性輸入測試即部署(引發安全風險)。