Fähigkeiten ml-pipeline-workflow
📦

ml-pipeline-workflow

Sicher

Produktions-ML-Pipelines mit End-to-End-Orchestrierung erstellen

Machine-Learning-Teams haben Schwierigkeiten, Datenaufbereitung, Training, Validierung und Bereitstellung in zuverlässige Produktionsworkflows zu integrieren. Diese Anleitung bietet umfassende Unterstützung für den Aufbau von End-to-End-MLOps-Pipelines mit geeigneter Orchestrierung, Überwachung und Bereitstellungsstrategien.

Unterstützt: Claude Codex Code(CC)
📊 71 Angemessen
1

Die Skill-ZIP herunterladen

2

In Claude hochladen

Gehe zu Einstellungen → Fähigkeiten → Skills → Skill hochladen

3

Einschalten und loslegen

Teste es

Verwendung von "ml-pipeline-workflow". Design a batch training pipeline for a recommendation model that retrains weekly

Erwartetes Ergebnis:

Pipeline-Architektur mit geplanter Datenaufnahme aus Produktionsdatenbank, Feature Engineering mit historischen Benutzerinteraktionen, verteiltem Training auf GPU-Cluster, Validierung gegen Hold-out-Test-Set und automatisierter Bereitstellung in Serving-Infrastruktur, wenn Performance-Schwellenwerte erfüllt sind. Enthält MLflow-Experiment-Tracking und Model-Registry-Integration.

Verwendung von "ml-pipeline-workflow". How do I implement A/B testing for comparing two ML models in production?

Erwartetes Ergebnis:

A/B-Testing-Framework mit Verkehrsaufteilung zwischen Modellversionen, Metrikerfassung für beide Modelle, statistische Signifikanztests und automatisierte Gewinnerauswahl basierend auf Geschäftsmetriken. Implementierung verwendet Feature-Flags für Verkehrsrouting und Echtzeit-Überwachungs-Dashboards.

Verwendung von "ml-pipeline-workflow". What monitoring should I set up for a production ML pipeline?

Erwartetes Ergebnis:

Umfassende Überwachungsstrategie einschließlich Data-Drift-Erkennung für Eingabe-Features, Modell-Performance-Metriken, Vorhersagelatenz und Durchsatz, Fehlerraten und Fehlermodi, Ressourcennutzung und Datenqualitätsprüfen. Alarme für Schwellenwertverletzungen konfiguriert mit automatisierten Rollback-Fähigkeiten.

Sicherheitsaudit

Sicher
v5 • 1/21/2026

This skill contains only documentation and guidance for ML pipeline workflows with no executable code. All static findings are false positives from pattern matching on markdown file extensions and documentation examples. The skill provides templates and best practices for MLOps workflows with no security concerns.

2
Gescannte Dateien
557
Analysierte Zeilen
0
befunde
5
Gesamtzahl Audits
Keine Sicherheitsprobleme gefunden
Auditiert von: claude Audit-Verlauf anzeigen →

Qualitätsbewertung

38
Architektur
100
Wartbarkeit
87
Inhalt
29
Community
100
Sicherheit
91
Spezifikationskonformität

Was du bauen kannst

Neue ML-Pipeline von Grund auf erstellen

Eine vollständige MLOps-Pipeline für ein neues Machine-Learning-Projekt mit Datenaufnahme, Training, Validierung und Bereitstellungsphasen entwerfen und implementieren.

Legacy-ML-Workflows modernisieren

Vorhandene manuelle oder fragmentierte ML-Prozesse in automatisierte, orchestrierte Pipelines mit properer Versionierung und Überwachung umgestalten.

Produktionsbereitstellungsstrategie implementieren

Sichere Modellbereitstellungs-Workflows mit Canary-Releases, A/B-Tests und automatisiertem Rollback für Produktions-ML-Systeme einrichten.

Probiere diese Prompts

Grundlegende Pipeline-Architektur
Hilf mir, eine einfache ML-Pipeline für ein Klassifikationsmodell zu entwerfen, die Datenvalidierung, Training und Bereitstellungsphasen umfasst. Die Pipeline sollte auf Airflow ausgeführt werden.
Datenaufbereitungs-Workflow
Erstelle eine Datenaufbereitungs-Pipeline, die die Qualität der Eingabedaten validiert, Features berechnet und Datensets für Reproduzierbarkeit versioniert. Binde Great Expectations für die Validierung ein.
Modellvalidierungs-Framework
Entwickle einen Modellvalidierungs-Workflow, der neue Modelle mit Baseline-Modellen vergleicht, Performance-Tests durchführt und Genehmigungsberichte vor der Bereitstellung generiert.
Produktionsbereitstellungsstrategie
Implementiere einen Canary-Deployment-Workflow für ML-Modelle mit gradueller Verkehrsumleitung, automatisierter Performance-Überwachung und Rollback-Auslösern, wenn Metriken abfallen.

Bewährte Verfahren

  • Pipelines mit modularen Phasen entwerfen, die unabhängig getestet werden können, und Idempotenz implementieren, sodass erneutes Ausführen von Phasen sicher ist ohne Seiteneffekte.
  • Alle Artefakte versionieren einschließlich Datensets, Feature-Transformationen, Modellcode und trainierte Modelle mit Tools wie DVC, MLflow oder benutzerdefinierten Versionierungssystemen.
  • Graduelle Rollout-Strategien implementieren, beginnend mit Shadow-Deployments, fortschreitend zu Canary-Releases und automatisierte Rollback-Fähigkeiten für Produktionsmodelle aufrechterhalten.

Vermeiden

  • Enge Kopplung von Pipeline-Phasen oder hartcodierte Abhängigkeiten vermeiden, die es schwierig machen, Komponenten isoliert zu testen oder den Workflow zu modifizieren.
  • Validierungsphasen nicht überspringen oder Modelle direkt ohne properes Testing, Vergleich mit Baseline-Modellen und Genehmigungs-Workflows in die Produktion bereitstellen.
  • Überwachung und Alarme für Produktionsmodelle niemals ignorieren, da dies zu unentdeckter Performance-Degradation, Data-Drift und Modellausfällen führt.

Häufig gestellte Fragen

Welches Orchestrierungs-Tool sollte ich für ML-Pipelines verwenden?
Die Wahl hängt von Ihrer Infrastruktur und Teampräferenzen ab. Apache Airflow ist weit verbreitet mit starker Community-Unterstützung. Dagster bietet moderne Asset-basierte Orchestrierung. Kubeflow Pipelines ist ideal für Kubernetes-Umgebungen. Prefect bietet einen entwicklerfreundlichen Python-first-Ansatz. Beginnen Sie mit dem, was Ihr Team bereits für Daten-Workflows verwendet.
Wie gehe ich mit Modellversionierung und Rollback um?
Verwenden Sie eine Model-Registry wie MLflow oder Cloud-Plattform-Registries, um Modelle mit Metadaten zu versionieren. Implementieren Sie Blue-Green- oder Canary-Bereitstellungsstrategien, die vorherige Modellversionen am Laufen halten. Richten Sie automatisierte Health-Checks und Rollback-Auslöser basierend auf Performance-Metriken ein. Pflegen Sie Artefakte und Konfigurationen für jede Version, um schnelles Rollback zu ermöglichen.
Was ist der Unterschied zwischen Batch- und Echtzeit-ML-Pipelines?
Batch-Pipelines verarbeiten Daten und erstellen Vorhersagen nach einem Zeitplan mit höherer Latenz, aber besserer Ressourceneffizienz. Echtzeit-Pipelines liefern Vorhersagen mit niedriger Latenz für einzelne Anfragen, erfordern aber mehr Infrastruktur. Viele Produktionssysteme verwenden hybride Ansätze mit Echtzeit-Serving, unterstützt durch Batch-Feature-Engineering und Modell-Updates.
Wie implementiere ich Datenvalidierung in ML-Pipelines?
Verwenden Sie Bibliotheken wie Great Expectations oder TensorFlow Data Validation, um Datenschemata und Qualitätsprüfen zu definieren. Validieren Sie Datentypen, Wertebereiche, Verteilungen und Beziehungen an Pipeline-Grenzen. Fail-Fast, wenn Validierung fehlschlägt, anstatt fehlerhafte Daten zu propagieren. Protokollieren Sie Validierungsergebnisse für Debugging und Überwachung der Datenqualität über Zeit.
Welche Metriken sollte ich für ML-Pipeline-Health verfolgen?
Verfolgen Sie Pipeline-Ausführungszeit und Erfolgsraten für jede Phase. Überwachen Sie Datenvolumina und Feature-Verteilungen für Drift-Erkennung. Protokollieren Sie Modell-Performance-Metriken einschließlich Accuracy, Precision und Recall. Messen Sie Vorhersagelatenz und Durchsatz für Serving. Richten Sie Alarme für Anomalien und Schwellenwertverletzungen ein.
Wie teste ich ML-Pipelines vor der Produktionsbereitstellung?
Testen Sie einzelne Pipeline-Komponenten mit Unit-Tests unter Verwendung von Beispieldaten. Führen Sie Integrationstests auf der vollständigen Pipeline mit realistischen Datensets durch. Führen Sie Canary-Deployments mit kleinen Verkehrsanteilen durch, um Produktionsverhalten zu validieren. Verwenden Sie Shadow-Deployments, um neue Pipelines mit vorhandenen zu vergleichen, ohne Benutzer zu beeinflussen. Validieren Sie, dass Rollback-Verfahren korrekt funktionieren.

Entwicklerdetails

Dateistruktur

📄 SKILL.md