prompt-engineering-patterns
Meisterhaftes Prompt-Engineering für bessere KI-Ergebnisse
LLMs produzieren inkonsistente Ergebnisse mit schlecht formulierten Prompts. Diese Fähigkeit bietet erprobte Muster und Vorlagen für Chain-of-Thought-Reasoning, Few-Shot-Learning und systematische Prompt-Optimierung zur Verbesserung der Ausgabequalität.
Die Skill-ZIP herunterladen
In Claude hochladen
Gehe zu Einstellungen → Fähigkeiten → Skills → Skill hochladen
Einschalten und loslegen
Teste es
Verwendung von "prompt-engineering-patterns". Write a prompt to summarize customer feedback
Erwartetes Ergebnis:
- Mit der System-Rolle beginnen: Sie sind ein professioneller Analyst.
- Spezifische Einschränkungen hinzufügen: In 3 Punkten zusammenfassen.
- Beispiele einschließen: Eingabe-Ausgabe-Paare für Feedback-Kategorien zeigen.
- Format definieren: Konsistente Struktur für jede Zusammenfassung verwenden.
Sicherheitsaudit
SicherThis is a documentation-focused skill containing markdown guides and a local Python utility script for prompt optimization. The 228 static findings are false positives triggered by documentation patterns: backticks in Python code examples misinterpreted as shell commands, cryptographic terminology (SHA, MD5) mentioned in text, and references to API keys and file paths. The skill makes no network calls, has no sensitive filesystem access, and does not execute external commands. The optimize-prompt.py script uses a mock LLM client for local testing only.
Risikofaktoren
⚙️ Externe Befehle (169)
📁 Dateisystemzugriff (3)
🌐 Netzwerkzugriff (1)
Qualitätsbewertung
Was du bauen kannst
Produktions-Prompts optimieren
Prompts für Produktions-LLM-Anwendungen systematisch testen und verfeinern mit A/B-Testing-Frameworks.
Vorlagenbibliotheken aufbauen
Wiederverwendbare Prompt-Vorlagen mit Variableninterpolation für konsistente Inhaltsgenerierung erstellen.
Fortgeschrittene Techniken anwenden
Chain-of-Thought- und Self-Consistency-Muster für komplexe Reasoning-Aufgaben implementieren.
Probiere diese Prompts
Classify this text into one of these categories: Positive, Negative, Neutral.
Text: {text}
Category:Extract information in JSON format.
Example:
Text: Apple CEO Tim Cook announced new iPhone.
Output: {"persons":["Tim Cook"],"organizations":["Apple"],"products":["iPhone"]}
Text: {text}
Output:Solve this step by step.
Problem: {problem}
Step 1: Identify what we know
Step 2: Determine the approach
Step 3: Calculate
Step 4: Verify
Answer:Solve this problem three different ways. Then identify which answer appears most frequently.
Problem: {problem}
Approach 1:
Result:
Approach 2:
Result:
Approach 3:
Result:
Final Answer (most common):Bewährte Verfahren
- Spezifisch bei Format-, Längen- und Stilanforderungen sein, nicht auf implizite Anweisungen verlassen
- Few-Shot-Beispiele verwenden, um das exakte Ausgabeformat zu demonstrieren, besonders bei strukturierten Daten
- Prompts an Grenzfällen und diversen Eingaben testen, bevor sie in Produktion eingesetzt werden
Vermeiden
- Prompts mit zu vielen Beispielen überladen, sodass Token-Limits den Platz für die eigentliche Eingabe reduzieren
- Vage Anweisungen wie 'sei hilfreich' oder 'sei genau' verwenden, die verschiedene Modelle unterschiedlich interpretieren
- Verifizierungsschritte für faktische oder logische Ausgaben überspringen, die Validierung erfordern