machine-learning-ops-ml-pipeline
マルチエージェントMLOpsで本番MLパイプラインを構築
機械学習チームは、適切なインフラストラクチャとモニタリングでモデルを本番環境化することに苦戦しています。このスキルは、データエンジニアリングからデプロイ、継続的なモニタリングまで、完全なMLパイプラインを設計するために特化したAIエージェントをオーケストレーションします。
スキルZIPをダウンロード
Claudeでアップロード
設定 → 機能 → スキル → スキルをアップロードへ移動
オンにして利用開始
テストする
「machine-learning-ops-ml-pipeline」を使用しています。 Build ML pipeline for fraud detection with real-time inference requirements
期待される結果:
- Data Pipeline: Kafka streaming ingestion with schema validation, feature computation using Flink, Redis for low-latency feature serving
- Model Training: XGBoost with time-series cross-validation, hyperparameter tuning via Optuna, MLflow experiment tracking
- Serving: KServe on Kubernetes with GPU acceleration, <50ms p99 latency SLO, automatic model warm-up
- Monitoring: Real-time drift detection using PSI, automated retraining triggers, Grafana dashboards for fraud metrics
「machine-learning-ops-ml-pipeline」を使用しています。 Set up experiment tracking and model registry for computer vision team
期待される結果:
- Experiment Tracking: MLflow with custom logging for images, metrics, and model architectures. Integration with PyTorch Lightning callbacks.
- Model Registry: Staging workflow with automated validation tests, model comparison tools, and one-click deployment to staging environment.
- Collaboration: Shared dashboards for team visibility, experiment tagging for reproducibility, artifact lineage tracking.
セキュリティ監査
安全This skill is documentation-only containing markdown content and prompt templates for ML pipeline orchestration. All static analysis findings were false positives: backticks at line 27 are markdown formatting for file references, 'blocker' matches are not cryptographic code, and 'reconnaissance' match is a configuration option label. No executable code, network calls, file operations, or secret handling detected.
品質スコア
作れるもの
データサイエンスチームリード
新しいチャーン予測モデル向けのエンドツーエンドMLパイプライン開発をオーケストレーションし、特徴量パイプライン向けのデータエンジニア、モデル実験向けのデータサイエンティスト、Kubernetes上の本番デプロイ向けのMLOpsエンジニアを調整します。
MLプラットフォームエンジニア
実験追跡、モデルレジストリ、自動再トレーニングパイプライン、複数のMLチーム向けの包括的なモニタリングを備えた標準化されたMLOpsインフラストラクチャを設計・実装します。
スタートアップCTO
コスト最適化、自動スケーリング、ブルーグリーンデプロイ、可観測性を備えた、新機能であるレコメンデーションエンジンをサポートするために、ゼロから本番対応ML-servingインフラストラクチャを構築します。
これらのプロンプトを試す
[use case]向けのデータ取り込み、モデルトレーニング、APIServingを含む基本的なMLパイプラインを設計します。必須コンポーネントに焦点を当て、アーキテクチャ図を提供します。
Feastを使用して[domain]向けの特徴量ストアを設計します。データソース接続、特徴量定義、変換ロジック、オンランオフラインストア設定、トレーニングおよびServingパイプラインとの統合を含めます。
Kubernetes上の[model type]モデルの完全なデプロイ戦略を作成します。KServe設定、HPA自動スケーリングルール、カナリアリリース用のIstioトラフィック管理、モニタリング指標、ロールバック手順を含みます。
[organization size]向けのエンタープライズMLOpsプラットフォームを設計します。MLflowによるマルチチーム実験追跡、集中型特徴量Store、承認ワークフローを備えたモデルRegistry、自動化再トレーニングトリガー、ドリフト検出、チーム間のコスト配分をカバーします。
ベストプラクティス
- 再現性のために、GitとDVCを使用してデータスキーマ、モデル設定、インフラストラクチャコードを含むすべてのパイプライン成果物をバージョン管理
- 各パイプラインステージで包括的な検証ゲートを実装:データ品質チェック、モデルパフォーマンスしきい値、デプロイ前のインフラストラクチャヘルスチェック
- 構造化されたログ、分散トレース、ビジネス指標の相関関係を備えた可観測性を最初から設計し、迅速なインシデント対応を可能にする
回避
- トレーニング-servingスキュー:トレーニングと本番で異なる特徴量計算ロジックを使用することで、予期しないモデルパフォーマンスの低下を引き起こす
- 手動モデルデプロイ:検証ゲートを備えた自動CI/CDパイプラインではなく、手動プロセスに依存したモデル促進
- モニタリングのBlind Spot:データドリフト、コンセプトドリフト、ビジネスKPI相関関係をモニタリングせず、システム指標のみを追跡