prompt-engineering-patterns
プロンプトエンジニアリングの極意 ― AI結果の劇的向上
LLMは不適切なプロンプトを使うと一貫性のない結果を生成します。このスキルは、Chain-of-Thought推論、Few-shot学習体系的なプロンプト最適化のための実証済みのパターンとテンプレートを提供し、出力品質を向上させます。
スキルZIPをダウンロード
Claudeでアップロード
設定 → 機能 → スキル → スキルをアップロードへ移動
オンにして利用開始
テストする
「prompt-engineering-patterns」を使用しています。 Write a prompt to summarize customer feedback
期待される結果:
- システムロールから始める: あなたは専門的なアナリストです。
- 具体的な制約を追加する: 3つの箇条書きで要約します。
- 例を含める: フィードバックカテゴリの入出力例を示します。
- 形式を定義する: 各要約に一貫した構造を使用します。
セキュリティ監査
安全This is a documentation-focused skill containing markdown guides and a local Python utility script for prompt optimization. The 228 static findings are false positives triggered by documentation patterns: backticks in Python code examples misinterpreted as shell commands, cryptographic terminology (SHA, MD5) mentioned in text, and references to API keys and file paths. The skill makes no network calls, has no sensitive filesystem access, and does not execute external commands. The optimize-prompt.py script uses a mock LLM client for local testing only.
リスク要因
⚙️ 外部コマンド (169)
📁 ファイルシステムへのアクセス (3)
🌐 ネットワークアクセス (1)
品質スコア
作れるもの
本番プロンプトの最適化
A/Bテストフレームワークを使用して、本番LLMアプリケーションのプロンプ트를体系的にテスト・改良します。
テンプレートライブラリの構築
変数補間可能な再利用可能なプロンプトテンプレートを作成し、一貫したコンテンツ生成を実現します。
高度な技術の適用
複雑な推論タスクにChain-of-Thoughtと自己整合性パターンを実装します。
これらのプロンプトを試す
Classify this text into one of these categories: Positive, Negative, Neutral.
Text: {text}
Category:Extract information in JSON format.
Example:
Text: Apple CEO Tim Cook announced new iPhone.
Output: {"persons":["Tim Cook"],"organizations":["Apple"],"products":["iPhone"]}
Text: {text}
Output:Solve this step by step.
Problem: {problem}
Step 1: Identify what we know
Step 2: Determine the approach
Step 3: Calculate
Step 4: Verify
Answer:Solve this problem three different ways. Then identify which answer appears most frequently.
Problem: {problem}
Approach 1:
Result:
Approach 2:
Result:
Approach 3:
Result:
Final Answer (most common):ベストプラクティス
- 暗示的な指示に頼らず、形式、長さ、スタイル要件について具体的に指定する
- 必要とする正確な出力形式を示すためにFew-shot例を使用し、特に構造化データで効果的
- 本番環境にデプロイする前に、エッジケースや多様な入力でプロンプトをテストする
回避
- 例が多すぎてトークン上限に達し、実際の入力スペースを消費してしまう
- 「有帮助でいて」や「正確でいて」といった曖昧な指示を使い、モデルによって解釈が異なる
- 事実確認や論理的な出力に必要な検証ステップを飛ばす