ml-pipeline-workflow
Produktions-ML-Pipelines mit End-to-End-Orchestrierung erstellen
Machine-Learning-Teams haben Schwierigkeiten, Datenaufbereitung, Training, Validierung und Bereitstellung in zuverlässige Produktionsworkflows zu integrieren. Diese Anleitung bietet umfassende Unterstützung für den Aufbau von End-to-End-MLOps-Pipelines mit geeigneter Orchestrierung, Überwachung und Bereitstellungsstrategien.
Die Skill-ZIP herunterladen
In Claude hochladen
Gehe zu Einstellungen → Fähigkeiten → Skills → Skill hochladen
Einschalten und loslegen
Teste es
Verwendung von "ml-pipeline-workflow". Design a batch training pipeline for a recommendation model that retrains weekly
Erwartetes Ergebnis:
Pipeline-Architektur mit geplanter Datenaufnahme aus Produktionsdatenbank, Feature Engineering mit historischen Benutzerinteraktionen, verteiltem Training auf GPU-Cluster, Validierung gegen Hold-out-Test-Set und automatisierter Bereitstellung in Serving-Infrastruktur, wenn Performance-Schwellenwerte erfüllt sind. Enthält MLflow-Experiment-Tracking und Model-Registry-Integration.
Verwendung von "ml-pipeline-workflow". How do I implement A/B testing for comparing two ML models in production?
Erwartetes Ergebnis:
A/B-Testing-Framework mit Verkehrsaufteilung zwischen Modellversionen, Metrikerfassung für beide Modelle, statistische Signifikanztests und automatisierte Gewinnerauswahl basierend auf Geschäftsmetriken. Implementierung verwendet Feature-Flags für Verkehrsrouting und Echtzeit-Überwachungs-Dashboards.
Verwendung von "ml-pipeline-workflow". What monitoring should I set up for a production ML pipeline?
Erwartetes Ergebnis:
Umfassende Überwachungsstrategie einschließlich Data-Drift-Erkennung für Eingabe-Features, Modell-Performance-Metriken, Vorhersagelatenz und Durchsatz, Fehlerraten und Fehlermodi, Ressourcennutzung und Datenqualitätsprüfen. Alarme für Schwellenwertverletzungen konfiguriert mit automatisierten Rollback-Fähigkeiten.
Sicherheitsaudit
SicherThis skill contains only documentation and guidance for ML pipeline workflows with no executable code. All static findings are false positives from pattern matching on markdown file extensions and documentation examples. The skill provides templates and best practices for MLOps workflows with no security concerns.
Qualitätsbewertung
Was du bauen kannst
Neue ML-Pipeline von Grund auf erstellen
Eine vollständige MLOps-Pipeline für ein neues Machine-Learning-Projekt mit Datenaufnahme, Training, Validierung und Bereitstellungsphasen entwerfen und implementieren.
Legacy-ML-Workflows modernisieren
Vorhandene manuelle oder fragmentierte ML-Prozesse in automatisierte, orchestrierte Pipelines mit properer Versionierung und Überwachung umgestalten.
Produktionsbereitstellungsstrategie implementieren
Sichere Modellbereitstellungs-Workflows mit Canary-Releases, A/B-Tests und automatisiertem Rollback für Produktions-ML-Systeme einrichten.
Probiere diese Prompts
Hilf mir, eine einfache ML-Pipeline für ein Klassifikationsmodell zu entwerfen, die Datenvalidierung, Training und Bereitstellungsphasen umfasst. Die Pipeline sollte auf Airflow ausgeführt werden.
Erstelle eine Datenaufbereitungs-Pipeline, die die Qualität der Eingabedaten validiert, Features berechnet und Datensets für Reproduzierbarkeit versioniert. Binde Great Expectations für die Validierung ein.
Entwickle einen Modellvalidierungs-Workflow, der neue Modelle mit Baseline-Modellen vergleicht, Performance-Tests durchführt und Genehmigungsberichte vor der Bereitstellung generiert.
Implementiere einen Canary-Deployment-Workflow für ML-Modelle mit gradueller Verkehrsumleitung, automatisierter Performance-Überwachung und Rollback-Auslösern, wenn Metriken abfallen.
Bewährte Verfahren
- Pipelines mit modularen Phasen entwerfen, die unabhängig getestet werden können, und Idempotenz implementieren, sodass erneutes Ausführen von Phasen sicher ist ohne Seiteneffekte.
- Alle Artefakte versionieren einschließlich Datensets, Feature-Transformationen, Modellcode und trainierte Modelle mit Tools wie DVC, MLflow oder benutzerdefinierten Versionierungssystemen.
- Graduelle Rollout-Strategien implementieren, beginnend mit Shadow-Deployments, fortschreitend zu Canary-Releases und automatisierte Rollback-Fähigkeiten für Produktionsmodelle aufrechterhalten.
Vermeiden
- Enge Kopplung von Pipeline-Phasen oder hartcodierte Abhängigkeiten vermeiden, die es schwierig machen, Komponenten isoliert zu testen oder den Workflow zu modifizieren.
- Validierungsphasen nicht überspringen oder Modelle direkt ohne properes Testing, Vergleich mit Baseline-Modellen und Genehmigungs-Workflows in die Produktion bereitstellen.
- Überwachung und Alarme für Produktionsmodelle niemals ignorieren, da dies zu unentdeckter Performance-Degradation, Data-Drift und Modellausfällen führt.