スキル llm-app-patterns
📦

llm-app-patterns

安全

本番環境の LLM アプリケーションを構築

LLM アプリケーションの構築には、複雑なアーキテクチャ設計の意思決定が必要です。このスキルでは、RAG パイプライン、エージェントシステム、本番運用における実戦で検証されたパターンを提供します。

対応: Claude Codex Code(CC)
🥉 73 ブロンズ
1

スキルZIPをダウンロード

2

Claudeでアップロード

設定 → 機能 → スキル → スキルをアップロードへ移動

3

オンにして利用開始

テストする

「llm-app-patterns」を使用しています。 ユーザーの質問:会社の返金ポリシーは何ですか?

期待される結果:

  • ベクトルデータベースから関連するポリシー文書を検索
  • 取得した文脈に基づき、ソース引用を含めて回答を生成
  • 信頼度スコアと文書参照付きでレスポンスを返す

「llm-app-patterns」を使用しています。 ユーザーの質問:気候変動の影響に関する研究プロジェクトを計画して

期待される結果:

  • データ収集、傾向分析、ソース特定、レポート草案というステップを含む計画を作成
  • ツール呼び出しで各ステップを順次実行
  • 調査結果を包括的な研究概要に統合

セキュリティ監査

安全
v1 • 2/25/2026

This skill is a documentation file containing educational content about LLM application patterns. All static analysis findings are false positives caused by markdown formatting. The backticks flagged are code block delimiters and ASCII art borders, not shell command execution. URLs are documentation references, not active network calls. Code examples like hashlib.sha256 are illustrative and use secure algorithms. No executable code or security risks detected.

1
スキャンされたファイル
763
解析された行数
0
検出結果
1
総監査数
セキュリティ問題は見つかりませんでした
監査者: claude

品質スコア

38
アーキテクチャ
100
保守性
87
コンテンツ
50
コミュニティ
100
セキュリティ
83
仕様準拠

作れるもの

RAG ナレッジベース

ハイブリッド検索と文脈圧縮を使用して、ドキュメントに基づく質問応答システムを構築。

エージェントタスク自動化

ReAct または Plan-and-Execute パターンを使用して、検索、計算、情報統合を実行するマルチステップエージェントを作成。

LLM 本番監視

指標追跡、分散トレーシング、評価フレームワークによる LLM アプリケーションの観測性を実装。

これらのプロンプトを試す

基本 RAG プロンプト
Answer the user's question based ONLY on the following context. If the context doesn't contain enough information, say you don't have enough information.

Context:
{context}

Question: {question}

Answer:
ReAct エージェントプロンプト
You are an AI assistant that can use tools to answer questions.

Available tools:
{tools_description}

Use this format:
Thought: [your reasoning about what to do next]
Action: [tool_name(arguments)]
Observation: [tool result]
... (repeat as needed)
Thought: I have enough information to answer
Final Answer: [your response]

Question: {question}
Few-Shot プロンプト(例付き)
Input: {example1_input}
Output: {example1_output}

Input: {example2_input}
Output: {example2_output}

Input: {user_input}
Output:
研究用プロンプトチェーン
Step 1 (Research): Research the topic: {input}
Step 2 (Analyze): Analyze these findings: {research}
Step 3 (Summarize): Summarize this analysis in 3 bullet points: {analysis}

ベストプラクティス

  • より良い検索精度のためにセマンティック検索とキーワード検索を組み合わせたハイブリッド検索を使用
  • レイテンシとコストを削減するため、決定的なプロンプトにキャッシュを実装
  • 継続的改善のため、レイテンシ、トークン使用量、ユーザー満足度などの主要指標を追跡

回避

  • 文脈を破壊する、ドキュメント構造を考慮しない固定サイズチャンキングの使用
  • 品質低下を検出できなくなる、評価と監視の省略
  • 主要 LLM プロバイダーがダウンした際のフォールバック戦略を実装しないこと

よくある質問

RAG とファインチューニングの違いは何ですか?
RAG はクエリ時に Relevant なドキュメントを取得してコンテキストとして提供するため、再学習なしで最新情報にアクセスできます。ファインチューニングはトレーニングデータでモデル重みを調整するもので、スタイルや形式の学習には適していますが、トレーニング後に新しい知識を追加することはできません。
異なるエージェントアーキテクチャをどのように選択すればよいですか?
ツールを使用したインタラクティブなマルチステップ推論には ReAct を使用。構造化された API 統合には関数呼び出しを使用。事前計画を必要とする複雑なタスクには Plan-and-Execute を使用。異なるサブタスクに専門知識が必要な場合はマルチエージェントシステムを使用。
本番環境にはどのベクトルデータベースを使用すべきですか?
高スケールのマネージドサービスには Pinecone を使用。GraphQL 対応のセルフホストには Weaviate を使用。既存の PostgreSQL 環境には pgvector を使用。プロトタイピングには簡易さのために ChromaDB を使用。
LLM API コストを削減するにはどうすればよいですか?
類似クエリに対するセマンティックキャッシュを実装、単純なタスクには小型モデルを使用、プロンプト長を最適化、適切な temperature を設定(キャッシュ可能なレスポンスには 0)、プライマリモデルがレート制限された場合はフォールバックモデルを使用。
LLM アプリケーションでどの指標を追跡すべきですか?
パフォーマンス指標(レイテンシ、1 秒あたりのトークン数)、品質指標(ユーザー満足度、タスク完了率)、コスト指標(1 リクエストあたりのコスト、キャッシュヒット率)、信頼性指標(エラー率、タイムアウト率)を追跡。
RAG システムでのハルシネーションをどのように処理すればよいですか?
コンテキストが不十分な場合は「わかりません」と答えるようモデルに指示、評価でグラウンデッドネススコアリングを使用、検索品質チェックを実装、主張のソースを引用する検証ステップの追加を検討。

開発者の詳細

ファイル構成

📄 SKILL.md