llm-application-dev-prompt-optimize
LLM-Prompts mit Advanced Engineering-Techniken optimieren
Transformieren Sie grundlegende Anweisungen in produktionsreife Prompts, die die Genauigkeit um 40% verbessern und die Kosten um 50-80% reduzieren. Diese Fähigkeit bietet Expertenwissen zu Chain-of-Thought-Reasoning, Constitutional AI-Mustern und modellspezifischer Optimierung für Claude, GPT und Gemini.
スキルZIPをダウンロード
Claudeでアップロード
設定 → 機能 → スキル → スキルをアップロードへ移動
オンにして利用開始
テストする
「llm-application-dev-prompt-optimize」を使用しています。 Optimiere diesen Prompt: 'Beantworte Kundenfragen zu Rückerstattungen'
期待される結果:
Optimierter Prompt mit Rollendefinition, diagnostischem Framework, Struktur für Lösungslieferung, Verifizierungsschritten, Beschränkungen und JSON-Ausgabeformat. Enthält einen Chain-of-Thought-Reasoning-Abschnitt und eine Selbstprüfungs-Checkliste für Qualitätssicherung.
「llm-application-dev-prompt-optimize」を使用しています。 Verbessere diesen Prompt für Datenanalyse: 'Analysiere die Verkaufsdaten'
期待される結果:
Umfassendes Analyse-Framework mit fünf Phasen: Datenvalidierung, Trendanalyse mit statistischer Signifikanzprüfung, Segmentanalyse über mehrere Dimensionen, Insights-Vorlage mit Konfidenz-Scoring und priorisierten Empfehlungen im YAML-Format.
セキュリティ監査
安全Static analysis detected 62 potential security issues in code examples within documentation files. All findings are false positives - the detected patterns (Ruby backticks, MD5 references, reconnaissance commands) appear exclusively within markdown code blocks that demonstrate prompt engineering techniques. The skill contains no executable code, performs no file operations, network requests, or command execution. It is a documentation-only skill providing guidance on prompt optimization best practices.
品質スコア
作れるもの
Kundensupport-Prompt-Optimierung
Transformieren Sie einen grundlegenden Kundensupport-Prompt in ein strukturiertes, empathisches Antwortsystem mit diagnostischen Reasoning-Frameworks, Eskalationspfaden und Qualitätsbeschränkungen für konsistente, professionelle Support-Interaktionen.
Datenanalyse-Prompt-Erweiterung
Erweitern Sie eine einfache Datenanalyse-Anfrage zu einem umfassenden Analyse-Framework mit phasenbasierter Validierung, statistischer Signifikanzprüfung, Segmentanalyse und Executive-Reporting im strukturierten YAML-Format.
Sicherheitsoptimierung für Code-Generierung
Verbessern Sie Code-Generierung-Prompts mit sicherheitsorientiertem Design, Anforderungen zur Eingabevalidierung, SOLID-Prinzipien und Selbstprüfungs-Checklisten, um Injektionsschwachstellen zu verhindern und produktionsreifen Code sicherzustellen.
これらのプロンプトを試す
Analyze this step by step:
1. Identify the core problem
2. Break down into smaller components
3. Reason through each component carefully
4. Synthesize findings
5. Provide final answer with confidence level
Input: {your_input}Example 1:
Input: {simple_case}
Output: {correct_output}
Example 2:
Input: {edge_case}
Output: {correct_output}
Example 3:
Input: {error_case}
Wrong: {incorrect_output}
Correct: {correct_output}
Now apply to: {actual_input}{task_instructions}
Review your response against these principles:
1. ACCURACY: Verify all claims, flag uncertainties
2. SAFETY: Check for harm, bias, ethical issues
3. QUALITY: Ensure clarity, consistency, completeness
Initial Response: [Generate]
Self-Review: [Evaluate against principles]
Final Response: [Refined based on review]<context>
{background_information}
</context>
<task>
{clear_objective_with_constraints}
</task>
<thinking>
1. Understanding requirements...
2. Identifying components...
3. Planning approach...
</thinking>
<output_format>
{xml_structured_response_specification}
</output_format>ベストプラクティス
- Definieren Sie immer klare Rolle, Kontext, Aufgabe und Ausgabeformat in Ihren Prompts
- Verwenden Sie Chain-of-Thought-Reasoning für komplexe mehrstufige Probleme, um die Genauigkeit zu verbessern
- Fügen Sie 3-5 diverse Beispiele ein, die typische Fälle, Grenzfälle und Fehlerfälle für Few-Shot Learning abdecken
- Implementieren Sie Selbstkritik-Schleifen mit Constitutional AI-Prinzipien für sicherheitskritische Anwendungen
回避
- Vermeiden Sie vage Anweisungen wie 'analysiere dies' ohne Angabe von Framework, Ausgabeformat oder Erfolgskriterien
- Verwenden Sie keine einzelnen Beispiele ohne Abdeckung von Grenzfällen - dies führt zu sprödem Prompt-Verhalten
- Setzen Sie Prompts niemals ohne Testing gegen adversariale Eingaben, nicht-zuständige Abfragen und Grenzfälle ein
- Vermeiden Sie modell-agnostische Prompts - optimieren Sie die Struktur für spezifische LLMs (Claude bevorzugt XML-Tags, GPT bevorzugt ##-Header)