Habilidades ml-pipeline-workflow
🔄

ml-pipeline-workflow

Seguro

Crear Pipelines de ML en Producción

También disponible en: wshobson

Crear pipelines de ML confiables requiere orquestar las etapas de preparación de datos, entrenamiento, validación y despliegue mientras se mantiene la reproducibilidad y el monitoreo. Esta habilidad proporciona patrones probados y mejores prácticas para crear flujos de trabajo MLOps de extremo a extremo que escalan desde el prototipo hasta la producción.

Soporta: Claude Codex Code(CC)
🥉 72 Bronce
1

Descargar el ZIP de la skill

2

Subir en Claude

Ve a Configuración → Capacidades → Skills → Subir skill

3

Activa y empieza a usar

Pruébalo

Usando "ml-pipeline-workflow". Diseñar un pipeline de ML básico para clasificación de imágenes

Resultado esperado:

Aquí hay una arquitectura de pipeline de 4 etapas: Etapa 1 - Ingestión de datos (cargar imágenes, dividir train/val/test), Etapa 2 - Ingeniería de características (aumentación, normalización), Etapa 3 - Entrenamiento del modelo (entrenar CNN con registro de hiperparámetros), Etapa 4 - Despliegue (empaquetar modelo, desplegar a endpoint de serve). Cada etapa tiene lógica de reintento independiente y artefactos versionados de salida.

Usando "ml-pipeline-workflow". ¿Cómo implemento deployment canary para mi modelo?

Resultado esperado:

Estrategia de deployment canary: 1) Desplegar nuevo modelo al 10% del tráfico usando enrutamiento ponderado, 2) Monitorear métricas clave (latencia, tasa de error, calidad de predicciones) por 1-2 horas, 3) Si las métricas se mantienen dentro de los umbrales, aumentar gradualmente al 50%, luego al 100%, 4) Si se detectan anomalías, hacer rollback automático al modelo anterior. Usar MLflow o similar para rastrear versiones y rendimiento del modelo.

Auditoría de seguridad

Seguro
v1 • 2/25/2026

Static analysis detected 17 potential issues (external_commands and weak cryptographic patterns), all of which are false positives. The flagged backtick patterns are markdown code formatting for file path references (e.g., `resources/implementation-playbook.md`), not shell execution. The cryptographic algorithm flags do not correspond to actual cryptographic code in the skill file. This is a documentation-only skill with no executable code, no network access, no file system operations, and no security risks.

1
Archivos escaneados
260
Líneas analizadas
1
hallazgos
1
Auditorías totales
Problemas de riesgo bajo (1)
False Positive: Markdown Code Formatting
Static analyzer flagged 10 instances of 'Ruby/shell backtick execution' at lines 22, 73, 81, 90, 103, 200, 211, 215, 219, 223. These are markdown code spans using backticks to format file paths like `resources/implementation-playbook.md` and `assets/`, not actual shell execution commands. This is standard markdown syntax with no security implications.
Auditado por: claude

Puntuación de calidad

38
Arquitectura
100
Mantenibilidad
87
Contenido
32
Comunidad
100
Seguridad
100
Cumplimiento de la especificación

Lo que puedes crear

Crear Nuevo Pipeline de ML

Crear un pipeline de ML completo desde cero con orquestación, validación y etapas de despliegue adecuadas para un sistema de aprendizaje automático en producción.

Orquestar Flujos de Trabajo de ML

Diseñar e implementar automatización de workflows basada en DAG para componentes de ML existentes usando herramientas como Airflow, Dagster o Kubeflow Pipelines.

Desplegar Modelos en Producción

Implementar estrategias de despliegue seguras incluyendo releases canary, despliegues blue-green y mecanismos de rollback automatizado para modelos de ML.

Prueba estos prompts

Crear Pipeline Básico
Diseñar un pipeline de ML simple que procese datos, entrene un modelo y lo despliegue. Incluir las etapas clave y las dependencias.
Configurar Orquestación DAG
Ayúdame a configurar un workflow de ML basado en DAG usando [Airflow/Dagster/Kubeflow]. Tengo etapas de [procesamiento de datos/entrenamiento/validación] que necesitan ejecutarse en secuencia.
Implementar Estrategia de Despliegue
Diseñar una estrategia de despliegue para mi modelo de ML que incluya pruebas canary y rollback automatizado. El modelo sirve predicciones de [descripción].
Configurar Entrenamiento Continuo
Crear un pipeline de entrenamiento continuo que reentrene mi modelo cuando se detecte drift de datos. Incluir disparadores de monitoreo y gates de validación.

Mejores prácticas

  • Diseñar cada etapa del pipeline para que sea modular e independientemente testeable para facilitar el depurado y mantenimiento
  • Implementar etapas idempotentes de modo que volver a ejecutar cualquier parte del pipeline sea seguro y produzca resultados consistentes
  • Versionar todos los artefactos incluyendo datasets, modelos y configuraciones para reproducibilidad completa y capacidades de rollback

Evitar

  • Evitar etapas de pipeline monoliticas que combinen múltiples responsabilidades, ya que esto dificulta el depurado y reduce la reutilización
  • No saltarse la validación de datos entre etapas, ya que datos inválidos pueden causar fallos silenciosos posteriores que son difíciles de diagnosticar
  • Nunca desplegar modelos directamente al 100% del tráfico de producción sin pruebas de validación o mecanismos de rollout gradual

Preguntas frecuentes

¿Qué herramienta de orquestación debo usar para mi pipeline de ML?
Elige según tus necesidades: Airflow para workflows DAG maduros con gran soporte de la comunidad, Dagster para pipelines basados en activos con fuerte linaje de datos, Kubeflow para workflows de ML nativos de Kubernetes, o Prefect para automatización de workflows modernos en Python. Esta habilidad soporta las cuatro opciones.
¿Cómo manejo el versionado de datos en mi pipeline?
Usa DVC (Data Version Control) o herramientas similares para rastrear versiones de datasets junto con el código. Crea identificadores de versión únicos para cada dataset procesado, y registra estas versiones con tus modelos entrenados para seguimiento completo de linaje.
¿Cuál es la diferencia entre pipelines de características por lotes y en tiempo real?
Los pipelines por lotes procesan datos en un horario (ej. diario) y son más simples de implementar y depurar. Los pipelines en tiempo real usan procesamiento de streams para computar características bajo demanda para predicciones de baja latencia. Comienza con lotes, luego agrega características en tiempo real solo si tu caso de uso requiere latencia de predicción sub-segundo.
¿Cómo monitoreo el rendimiento del modelo después del despliegue?
Rastrea latencia de predicciones, tasas de error y métricas de negocio. Para calidad de predicciones, usa etiquetas ground truth cuando estén disponibles para computar accuracy/F1/MAE. Configura alertas para detección de drift de datos y regresión de rendimiento. La mayoría de los equipos usan MLflow, Weights & Biases o herramientas de observabilidad personalizadas.
¿Cuándo debo usar deployment canary vs blue-green?
Usa deployment canary para probar nuevos modelos en un pequeño porcentaje del tráfico mientras mantienes el modelo viejo funcionando. Usa deployment blue-green cuando necesites cambiar el tráfico completamente entre versiones. Canary es más seguro para cambios de modelo con impacto de rendimiento incierto; blue-green funciona bien para actualizaciones de infraestructura.
¿Cómo implemento disparadores de rollback automatizado?
Define umbrales para métricas clave (latencia p95 < 100ms, tasa de error < 1%, accuracy de predicciones dentro del 5% del baseline). Configura monitoreo para verificar estas métricas cada 5-10 minutos después del despliegue. Si alguna métrica excede el umbral por 2 verificaciones consecutivas, haz revertido automáticamente a la versión anterior del modelo usando el mecanismo de rollback de tu herramienta de orquestación.

Detalles del desarrollador

Estructura de archivos

📄 SKILL.md