スキル llm-application-dev-prompt-optimize
🎯

llm-application-dev-prompt-optimize

安全

LLM-Prompts mit Advanced Engineering-Techniken optimieren

Transformieren Sie grundlegende Anweisungen in produktionsreife Prompts, die die Genauigkeit um 40% verbessern und die Kosten um 50-80% reduzieren. Diese Fähigkeit bietet Expertenwissen zu Chain-of-Thought-Reasoning, Constitutional AI-Mustern und modellspezifischer Optimierung für Claude, GPT und Gemini.

対応: Claude Codex Code(CC)
📊 71 十分
1

スキルZIPをダウンロード

2

Claudeでアップロード

設定 → 機能 → スキル → スキルをアップロードへ移動

3

オンにして利用開始

テストする

「llm-application-dev-prompt-optimize」を使用しています。 Optimiere diesen Prompt: 'Beantworte Kundenfragen zu Rückerstattungen'

期待される結果:

Optimierter Prompt mit Rollendefinition, diagnostischem Framework, Struktur für Lösungslieferung, Verifizierungsschritten, Beschränkungen und JSON-Ausgabeformat. Enthält einen Chain-of-Thought-Reasoning-Abschnitt und eine Selbstprüfungs-Checkliste für Qualitätssicherung.

「llm-application-dev-prompt-optimize」を使用しています。 Verbessere diesen Prompt für Datenanalyse: 'Analysiere die Verkaufsdaten'

期待される結果:

Umfassendes Analyse-Framework mit fünf Phasen: Datenvalidierung, Trendanalyse mit statistischer Signifikanzprüfung, Segmentanalyse über mehrere Dimensionen, Insights-Vorlage mit Konfidenz-Scoring und priorisierten Empfehlungen im YAML-Format.

セキュリティ監査

安全
v1 • 2/25/2026

Static analysis detected 62 potential security issues in code examples within documentation files. All findings are false positives - the detected patterns (Ruby backticks, MD5 references, reconnaissance commands) appear exclusively within markdown code blocks that demonstrate prompt engineering techniques. The skill contains no executable code, performs no file operations, network requests, or command execution. It is a documentation-only skill providing guidance on prompt optimization best practices.

2
スキャンされたファイル
632
解析された行数
0
検出結果
1
総監査数
セキュリティ問題は見つかりませんでした
監査者: claude

品質スコア

38
アーキテクチャ
100
保守性
87
コンテンツ
31
コミュニティ
100
セキュリティ
91
仕様準拠

作れるもの

Kundensupport-Prompt-Optimierung

Transformieren Sie einen grundlegenden Kundensupport-Prompt in ein strukturiertes, empathisches Antwortsystem mit diagnostischen Reasoning-Frameworks, Eskalationspfaden und Qualitätsbeschränkungen für konsistente, professionelle Support-Interaktionen.

Datenanalyse-Prompt-Erweiterung

Erweitern Sie eine einfache Datenanalyse-Anfrage zu einem umfassenden Analyse-Framework mit phasenbasierter Validierung, statistischer Signifikanzprüfung, Segmentanalyse und Executive-Reporting im strukturierten YAML-Format.

Sicherheitsoptimierung für Code-Generierung

Verbessern Sie Code-Generierung-Prompts mit sicherheitsorientiertem Design, Anforderungen zur Eingabevalidierung, SOLID-Prinzipien und Selbstprüfungs-Checklisten, um Injektionsschwachstellen zu verhindern und produktionsreifen Code sicherzustellen.

これらのプロンプトを試す

Grundlegender Chain-of-Thought-Prompt
Analyze this step by step:

1. Identify the core problem
2. Break down into smaller components
3. Reason through each component carefully
4. Synthesize findings
5. Provide final answer with confidence level

Input: {your_input}
Few-Shot Learning-Vorlage
Example 1:
Input: {simple_case}
Output: {correct_output}

Example 2:
Input: {edge_case}
Output: {correct_output}

Example 3:
Input: {error_case}
Wrong: {incorrect_output}
Correct: {correct_output}

Now apply to: {actual_input}
Constitutional AI mit Selbstkritik
{task_instructions}

Review your response against these principles:
1. ACCURACY: Verify all claims, flag uncertainties
2. SAFETY: Check for harm, bias, ethical issues
3. QUALITY: Ensure clarity, consistency, completeness

Initial Response: [Generate]
Self-Review: [Evaluate against principles]
Final Response: [Refined based on review]
Modell-optimierte Struktur (Claude)
<context>
{background_information}
</context>

<task>
{clear_objective_with_constraints}
</task>

<thinking>
1. Understanding requirements...
2. Identifying components...
3. Planning approach...
</thinking>

<output_format>
{xml_structured_response_specification}
</output_format>

ベストプラクティス

  • Definieren Sie immer klare Rolle, Kontext, Aufgabe und Ausgabeformat in Ihren Prompts
  • Verwenden Sie Chain-of-Thought-Reasoning für komplexe mehrstufige Probleme, um die Genauigkeit zu verbessern
  • Fügen Sie 3-5 diverse Beispiele ein, die typische Fälle, Grenzfälle und Fehlerfälle für Few-Shot Learning abdecken
  • Implementieren Sie Selbstkritik-Schleifen mit Constitutional AI-Prinzipien für sicherheitskritische Anwendungen

回避

  • Vermeiden Sie vage Anweisungen wie 'analysiere dies' ohne Angabe von Framework, Ausgabeformat oder Erfolgskriterien
  • Verwenden Sie keine einzelnen Beispiele ohne Abdeckung von Grenzfällen - dies führt zu sprödem Prompt-Verhalten
  • Setzen Sie Prompts niemals ohne Testing gegen adversariale Eingaben, nicht-zuständige Abfragen und Grenzfälle ein
  • Vermeiden Sie modell-agnostische Prompts - optimieren Sie die Struktur für spezifische LLMs (Claude bevorzugt XML-Tags, GPT bevorzugt ##-Header)

よくある質問

Was ist Chain-of-Thought-Prompting und wann sollte ich es verwenden?
Chain-of-Thought (CoT) Prompting zerlegt komplexe Probleme in schrittweises Reasoning. Verwenden Sie es für Aufgaben, die logische Deduktion, mehrstufige Berechnungen oder systematische Analyse erfordern. CoT kann die Reasoning-Genauigkeit um 25-40% für Mathematik, Logik und analytische Aufgaben verbessern.
Wie viele Beispiele sollte ich in Few-Shot Learning einfügen?
Fügen Sie 3-5 sorgfältig ausgewählte Beispiele ein, die Folgendes abdecken: einfache Fälle (erwartetes Verhalten), Grenzfälle (Randbedingungen) und Fehlerfälle (was zu vermeiden ist). Qualität ist wichtiger als Quantität - jedes Beispiel sollte einen unterschiedlichen Aspekt des gewünschten Verhaltens vermitteln.
Was ist Constitutional AI und warum ist sie wichtig?
Constitutional AI bettet Prinzipien (Genauigkeit, Sicherheit, Qualität) mit Selbstkritik-Schleifen in Prompts ein. Das Modell generiert eine erste Antwort, bewertet sie anhand der Prinzipien und verfeinert sie entsprechend. Dies reduziert schädliche Ausgaben um 40% und ist für Produktionsanwendungen unerlässlich.
Sollte ich Prompts unterschiedlich für Claude vs. GPT optimieren?
Ja. Claude arbeitet am besten mit XML-Tags (<context>, <task>, <output_format>) und expliziten Reasoning-Abschnitten. GPT-4/5 bevorzugt ##-Header und JSON-Strukturen. Gemini reagiert gut auf **-fett markierte** Abschnittsmarkierungen mit expliziten Beschränkungen. Passen Sie die Syntax immer an das Zielmodell an.
Wie messe ich, ob meine Prompt-Optimierung funktioniert?
Verwenden Sie LLM-as-Judge-Evaluierung mit 20 Testfällen (10 typisch, 5 Grenzfälle, 3 adversarial, 2 außerhalb des Geltungsbereichs). Bewerten Sie nach Aufgabenabschluss, Genauigkeit, Reasoning, Formateinhaltung und Sicherheit. Verfolgen Sie Erfolgsrate, Token-Effizienz und Kosten über die Zeit. Führen Sie 48 Stunden lang A/B-Tests gegen den ursprünglichen Prompt durch.
Welche häufigen Fehler bei der Prompt-Optimierung sollte ich vermeiden?
Häufige Fehler: Auslassen von Ausgabeformat-Spezifikationen (verursacht inkonsistente Antworten), Verwendung mehrdeutiger Sprache (führt zu unterschiedlichen Interpretationen), Überspringen von Grenzfällen-Beispielen (erzeugt sprödes Verhalten) und Einsatz ohne Testing gegen adversariale Eingaben (riskiert Sicherheitsprobleme).

開発者の詳細

ファイル構成