mcp-builder
Claude 統合用の MCP サーバーを構築する
こちらからも入手できます: 92Bilal26,YYH211,anthropics,92Bilal26,davila7,ArtemisAI,AutumnsGrove,Azeem-2,Doyajin174,DYAI2025,Cam10001110101,ComposioHQ,mcp-use
AI アシスタントとうまく連携する MCP サーバーの作成には、慎重な設計判断が必要です。このガイドでは、信頼性の高い LLM 相互作用を保証するための、ツール設計、API 統合、評価の実証済みパターンを提供します。
スキルZIPをダウンロード
Claudeでアップロード
設定 → 機能 → スキル → スキルをアップロードへ移動
オンにして利用開始
テストする
「mcp-builder」を使用しています。 適切なツール定義を備えた Python MCP サーバーの構造を示してください
期待される結果:
- server.py、tools/、utils/ ディレクトリを持つプロジェクト構造
- Pydantic スキーマと @mcp.tool デコレータを使用したツール登録
- エラーハンドリングとページネーションを備えた非同期関数の実装
「mcp-builder」を使用しています。 優れた MCP ツールの説明には何を含めるべきですか?
期待される結果:
- ツールの目的の明確な要約を 1 文で
- 各入力が何をするかを説明するパラメータの説明
- 典型的な使用シナリオの例
- 戻り値の型の情報と形式の期待
セキュリティ監査
低リスクThis is a documentation skill containing guides for building MCP servers. Static analysis detected 498 patterns, but nearly all are FALSE POSITIVES from markdown documentation files showing code examples. The Python scripts (evaluation.py, connections.py) are legitimate evaluation tooling using official Anthropic and MCP SDKs. Minor risk from environment variable handling in evaluation scripts.
中リスクの問題 (1)
低リスクの問題 (2)
リスク要因
⚡ スクリプトを含む
🌐 ネットワークアクセス (3)
品質スコア
作れるもの
API 統合デベロッパー
外部 API を AI アシスタントに公開する MCP サーバーを構築するデベロッパーは、選択した言語の包括的な実装ガイドに従うことができます。
AI ツールデザイナー
AI ツールエコシステムを設計するチームは、評価フレームワークを使用して MCP サーバーが LLM エージェントと効果的に機能することを検証できます。
AI 統合を計画するテクニカルリード
エンジニアリングリーダーは、ベストプラクティスガイドを使用して組織全体で MCP サーバー開発の標準を確立できます。
これらのプロンプトを試す
I want to build an MCP server to connect Claude to [API_NAME]. Based on the mcp-builder guide, what are the first steps I should take to plan my implementation?
Help me design input and output schemas for an MCP tool that [TOOL_FUNCTION]. Use the patterns from the mcp-builder guide for [PYTHON_OR_TYPESCRIPT].
I've built an MCP server for [SERVICE]. Generate 10 evaluation questions following the mcp-builder evaluation guidelines to test if LLMs can effectively use these tools.
My MCP server tool [TOOL_NAME] is returning errors when Claude uses it. Review the implementation against mcp-builder best practices and suggest improvements.
ベストプラクティス
- LLM の検出可能性を向上させるために、一貫性のあるプレフィックスを付けた説明的なツール名を使用してください(例:github_create_issue、github_list_repos)
- 構造化されたコンテンツレスポンスを有効にするために、Zod または Pydantic を使用して inputSchema と outputSchema の両方を定義してください
- 具体的な次のステップで LLM をソリューションに導く、実用的なエラーメッセージを記述してください
回避
- LLM に機能を示さない「process_data」のような曖昧な名前のツールを作成すること
- 構造化された JSON がより良い LLM 推論を可能にする場合に、構造化されていないテキストを返すこと
- 大量の結果セットを返す可能性のあるエンドポイントのページネーションサポートを省略すること