Compétences prompt-engineering-patterns
📝

prompt-engineering-patterns

Sûr ⚙️ Commandes externes📁 Accès au système de fichiers🌐 Accès réseau

Maîtrisez l'ingénierie des prompts pour de meilleurs résultats IA

Les LLM produisent des résultats incohérents avec des prompts mal conçus. Cette compétence fournit des modèles et templates éprouvés pour le raisonnement chain-of-thought, l'apprentissage few-shot et l'optimisation systématique des prompts pour améliorer la qualité des sorties.

Prend en charge: Claude Codex Code(CC)
🥈 81 Argent
1

Télécharger le ZIP du skill

2

Importer dans Claude

Allez dans Paramètres → Capacités → Skills → Importer un skill

3

Activez et commencez à utiliser

Tester

Utilisation de "prompt-engineering-patterns". Write a prompt to summarize customer feedback

Résultat attendu:

  • Commencez par le rôle système : Vous êtes un analyste professionnel.
  • Ajoutez des contraintes spécifiques : Résumez en 3 points.
  • Incluez des exemples : Montrez des paires entrée-sortie pour les catégories de feedback.
  • Définissez le format : Utilisez une structure cohérente pour chaque résumé.

Audit de sécurité

Sûr
v4 • 1/17/2026

This is a documentation-focused skill containing markdown guides and a local Python utility script for prompt optimization. The 228 static findings are false positives triggered by documentation patterns: backticks in Python code examples misinterpreted as shell commands, cryptographic terminology (SHA, MD5) mentioned in text, and references to API keys and file paths. The skill makes no network calls, has no sensitive filesystem access, and does not execute external commands. The optimize-prompt.py script uses a mock LLM client for local testing only.

10
Fichiers analysés
2,919
Lignes analysées
3
résultats
4
Total des audits

Facteurs de risque

⚙️ Commandes externes (169)
assets/prompt-template-library.md:6-12 assets/prompt-template-library.md:12-15 assets/prompt-template-library.md:15-23 assets/prompt-template-library.md:23-26 assets/prompt-template-library.md:26-33 assets/prompt-template-library.md:33-38 assets/prompt-template-library.md:38-50 assets/prompt-template-library.md:50-53 assets/prompt-template-library.md:53-68 assets/prompt-template-library.md:68-73 assets/prompt-template-library.md:73-84 assets/prompt-template-library.md:84-87 assets/prompt-template-library.md:87-101 assets/prompt-template-library.md:101-104 assets/prompt-template-library.md:104-113 assets/prompt-template-library.md:113-118 assets/prompt-template-library.md:118-125 assets/prompt-template-library.md:125-128 assets/prompt-template-library.md:128-137 assets/prompt-template-library.md:137-140 assets/prompt-template-library.md:140-147 assets/prompt-template-library.md:147-152 assets/prompt-template-library.md:152-163 assets/prompt-template-library.md:163-166 assets/prompt-template-library.md:166-183 assets/prompt-template-library.md:183-188 assets/prompt-template-library.md:188-197 assets/prompt-template-library.md:197-200 assets/prompt-template-library.md:200-207 assets/prompt-template-library.md:207-212 assets/prompt-template-library.md:212-221 assets/prompt-template-library.md:221-224 assets/prompt-template-library.md:224-234 assets/prompt-template-library.md:234-237 assets/prompt-template-library.md:237-244 references/chain-of-thought.md:12-29 references/chain-of-thought.md:29-34 references/chain-of-thought.md:34-53 references/chain-of-thought.md:53-58 references/chain-of-thought.md:58-83 references/chain-of-thought.md:83-90 references/chain-of-thought.md:90-125 references/chain-of-thought.md:125-130 references/chain-of-thought.md:130-176 references/chain-of-thought.md:176-181 references/chain-of-thought.md:181-218 references/chain-of-thought.md:218-223 references/chain-of-thought.md:223-248 references/chain-of-thought.md:248-251 references/chain-of-thought.md:251-278 references/chain-of-thought.md:278-281 references/chain-of-thought.md:281-303 references/chain-of-thought.md:303-308 references/chain-of-thought.md:308-328 references/chain-of-thought.md:328-331 references/chain-of-thought.md:331-345 references/chain-of-thought.md:345-349 references/chain-of-thought.md:349-359 references/few-shot-learning.md:12-27 references/few-shot-learning.md:27-34 references/few-shot-learning.md:34-56 references/few-shot-learning.md:56-63 references/few-shot-learning.md:63-73 references/few-shot-learning.md:73-80 references/few-shot-learning.md:80-94 references/few-shot-learning.md:94-103 references/few-shot-learning.md:103-121 references/few-shot-learning.md:121-126 references/few-shot-learning.md:126-138 references/few-shot-learning.md:138-143 references/few-shot-learning.md:143-154 references/few-shot-learning.md:154-161 references/few-shot-learning.md:161-166 references/few-shot-learning.md:166-169 references/few-shot-learning.md:169-195 references/few-shot-learning.md:195-200 references/few-shot-learning.md:200-214 references/few-shot-learning.md:214-219 references/few-shot-learning.md:219-228 references/few-shot-learning.md:228-231 references/few-shot-learning.md:231-240 references/few-shot-learning.md:240-243 references/few-shot-learning.md:243-252 references/few-shot-learning.md:252-257 references/few-shot-learning.md:257-266 references/few-shot-learning.md:266-269 references/few-shot-learning.md:269-293 references/few-shot-learning.md:293-300 references/few-shot-learning.md:300-334 references/few-shot-learning.md:334-339 references/few-shot-learning.md:339-354 references/prompt-optimization.md:6-26 references/prompt-optimization.md:26-29 references/prompt-optimization.md:29-31 references/prompt-optimization.md:31-33 references/prompt-optimization.md:33-64 references/prompt-optimization.md:64-67 references/prompt-optimization.md:67-114 references/prompt-optimization.md:114-119 references/prompt-optimization.md:119-144 references/prompt-optimization.md:144-147 references/prompt-optimization.md:147-167 references/prompt-optimization.md:167-170 references/prompt-optimization.md:170-192 references/prompt-optimization.md:192-197 references/prompt-optimization.md:197-230 references/prompt-optimization.md:230-233 references/prompt-optimization.md:233-272 references/prompt-optimization.md:272-277 references/prompt-optimization.md:277-324 references/prompt-optimization.md:324-329 references/prompt-optimization.md:329-368 references/prompt-optimization.md:368-384 references/prompt-optimization.md:384-387 references/prompt-optimization.md:387-390 references/prompt-optimization.md:390-393 references/prompt-optimization.md:393-396 references/prompt-optimization.md:396-399 references/prompt-optimization.md:399-402 references/prompt-optimization.md:402-405 references/prompt-templates.md:6-30 references/prompt-templates.md:30-33 references/prompt-templates.md:33-84 references/prompt-templates.md:84-87 references/prompt-templates.md:87-131 references/prompt-templates.md:131-136 references/prompt-templates.md:136-153 references/prompt-templates.md:153-156 references/prompt-templates.md:156-171 references/prompt-templates.md:171-174 references/prompt-templates.md:174-198 references/prompt-templates.md:198-201 references/prompt-templates.md:201-217 references/prompt-templates.md:217-222 references/prompt-templates.md:222-251 references/prompt-templates.md:251-254 references/prompt-templates.md:254-294 references/prompt-templates.md:294-297 references/prompt-templates.md:297-321 references/prompt-templates.md:321-326 references/prompt-templates.md:326-349 references/prompt-templates.md:349-352 references/prompt-templates.md:352-393 references/prompt-templates.md:393-409 references/prompt-templates.md:409-432 references/prompt-templates.md:432-435 references/prompt-templates.md:435-462 references/system-prompts.md:9-11 references/system-prompts.md:11-14 references/system-prompts.md:14-34 references/system-prompts.md:34-39 references/system-prompts.md:39-59 references/system-prompts.md:59-62 references/system-prompts.md:62-85 references/system-prompts.md:85-88 references/system-prompts.md:88-110 references/system-prompts.md:110-115 references/system-prompts.md:115-136 references/system-prompts.md:136-139 references/system-prompts.md:139-149 references/system-prompts.md:149-170 references/system-prompts.md:170-189 SKILL.md:59-82 SKILL.md:82-102 SKILL.md:102-104 SKILL.md:104-134 SKILL.md:134-144 SKILL.md:144-147 SKILL.md:147-158
📁 Accès au système de fichiers (3)
🌐 Accès réseau (1)

Score de qualité

82
Architecture
100
Maintenabilité
83
Contenu
30
Communauté
100
Sécurité
91
Conformité aux spécifications

Ce que vous pouvez construire

Optimiser les prompts de production

Tester et affiner systématiquement les prompts pour les applications LLM de production utilisant des frameworks de test A/B.

Construire des bibliothèques de modèles

Créer des modèles de prompts réutilisables avec interpolation de variables pour une génération de contenu cohérente.

Appliquer des techniques avancées

Implémenter les patterns chain-of-thought et auto-consistance pour les tâches de raisonnement complexes.

Essayez ces prompts

Classification simple
Classify this text into one of these categories: Positive, Negative, Neutral.

Text: {text}

Category:
Extraction few-shot
Extract information in JSON format.

Example:
Text: Apple CEO Tim Cook announced new iPhone.
Output: {"persons":["Tim Cook"],"organizations":["Apple"],"products":["iPhone"]}

Text: {text}

Output:
Chain-of-Thought
Solve this step by step.

Problem: {problem}

Step 1: Identify what we know
Step 2: Determine the approach
Step 3: Calculate
Step 4: Verify

Answer:
Auto-consistance
Solve this problem three different ways. Then identify which answer appears most frequently.

Problem: {problem}

Approach 1:
Result:

Approach 2:
Result:

Approach 3:
Result:

Final Answer (most common):

Bonnes pratiques

  • Soyez spécifique sur les exigences de format, de longueur et de style plutôt que de compter sur des instructions implicites
  • Utilisez des exemples few-shot pour démontrer le format de sortie exact dont vous avez besoin, surtout pour les données structurées
  • Testez les prompts sur des cas limites et des entrées diverses avant de les déployer en production

Éviter

  • Surcharger les prompts avec trop d'exemples, ce qui fait que les limites de tokens réduisent l'espace pour l'entrée réelle
  • Utiliser des instructions vagues comme 'soyez utile' ou 'soyez précis' que différents modèles interprètent différemment
  • Sauter les étapes de vérification pour les sorties factuelles ou logiques qui nécessitent une validation

Foire aux questions

Quels LLM fonctionnent avec ces patterns ?
Les patterns fonctionnent avec Claude, GPT-4, Claude Code et la plupart des modèles affinés par instruction. Certaines techniques comme chain-of-thought fonctionnent mieux sur les modèles capables de raisonnement.
Quel est le nombre optimal d'exemples few-shot ?
La plupart des tâches fonctionnent bien avec 3 à 5 exemples. Plus d'exemples peuvent diluer l'attention et consommer le budget de tokens. Testez différents nombres pour votre cas d'usage spécifique.
Comment intégrer avec mon codebase existant ?
La compétence fournit des systèmes de modèles et des utilitaires Python. Adaptez les classes PromptTemplate à votre client LLM. Le script optimize-prompt.py montre un workflow de test.
Mes données sont-elles envoyées quelque part ?
Non. Cette compétence s'exécute localement. Les documents de référence et les scripts utilitaires fonctionnent entièrement sur votre machine. Aucun appel réseau externe n'est effectué par aucun composant.
Pourquoi mes prompts fonctionnent-ils différemment selon les modèles ?
Les modèles ont des entraînements et des capacités différents. Testez et ajustez les modèles par modèle. Chain-of-thought fonctionne mieux sur les modèles de raisonnement. Certains modèles ont besoin d'instructions de format plus explicites.
Comment cela se compare-t-il aux autres compétences de prompting ?
Cette compétence se concentre sur les patterns prêts pour la production avec des workflows d'optimisation systématiques. Elle couvre les systèmes de modèles, les tests A/B et les métriques d'évaluation pour le déploiement en conditions réelles.