pytorch-lightning
Construir redes neuronales con PyTorch Lightning
También disponible en: davila7
Esta skill te ayuda a organizar el código de PyTorch en LightningModules reutilizables. Proporciona plantillas y documentación para configurar entrenamiento multi-GPU, implementar pipelines de datos y configurar seguimiento de experimentos con herramientas populares como W&B y TensorBoard.
Descargar el ZIP de la skill
Subir en Claude
Ve a Configuración → Capacidades → Skills → Subir skill
Activa y empieza a usar
Pruébalo
Usando "pytorch-lightning". Create a simple CNN LightningModule for image classification
Resultado esperado:
- Una clase LightningModule con __init__, training_step, validation_step y configure_optimizers
- Ejemplo de arquitectura CNN usando capas torch.nn
- Loop de entrenamiento que retorna pérdida y registra métricas con self.log()
- Configuración de optimizador con Adam y programador de tasa de aprendizaje
Usando "pytorch-lightning". Configure Trainer for GPU training with checkpointing
Resultado esperado:
- Configuración de Trainer con accelerator='gpu', devices=2
- Callback ModelCheckpoint para guardar el mejor modelo basado en pérdida de validación
- Callback EarlyStopping para detener entrenamiento cuando las métricas se estabilizan
- Configuración de barra de progreso y registrador
Auditoría de seguridad
SeguroAll 843 static findings are false positives. The 'Ruby/shell backtick execution' alerts are markdown code blocks, 'weak cryptographic algorithm' alerts flag normal text like 'DDP/FSDP', and 'eval()' refers to PyTorch's model.eval() method. This is legitimate deep learning documentation with no malicious code.
Factores de riesgo
⚙️ Comandos externos (4)
⚡ Contiene scripts (2)
🌐 Acceso a red (2)
Puntuación de calidad
Lo que puedes crear
Organizar experimentos de investigación
Estructura código de PyTorch en LightningModules reutilizables para experimentación más limpia e iteración más rápida.
Escalar entrenamiento a múltiples GPUs
Configura entrenamiento distribuido en clusters con DDP, FSDP o DeepSpeed para entrenamiento de modelos grandes.
Seguir experimentos automáticamente
Integra con W&B, TensorBoard o MLflow para registrar métricas, hiperparámetros y checkpoints de modelo.
Prueba estos prompts
Muéstrame cómo crear un LightningModule para un clasificador de imágenes con métodos training_step, validation_step y configure_optimizers.
¿Cómo configuro un Trainer para entrenamiento multi-GPU usando estrategia DDP con 4 GPUs en un solo nodo?
Crea un LightningDataModule para cargar datos de imágenes con transformaciones personalizadas para conjuntos de entrenamiento, validación y prueba.
Configura registro de Weights & Biases con WandbLogger en PyTorch Lightning para seguir métricas de entrenamiento e hiperparámetros.
Mejores prácticas
- Usa self.device en lugar de .cuda() para código agnóstico al dispositivo que funciona en GPU y CPU
- Llama a self.save_hyperparameters() en __init__() para guardar configuración para reproducibilidad
- Usa self.log() con sync_dist=True al registrar métricas en entrenamiento distribuido
Evitar
- No llames manualmente loss.backward() u optimizer.step() - deja que el Trainer maneje la optimización
- Evita mezclar código de investigación (arquitectura de modelo, cálculo de pérdida) con código de ingeniería (gestión de dispositivos, checkpointing)
- No uses .cuda() directamente - usa self.to(device) o confía en la colocación automática de dispositivo de Lightning
Preguntas frecuentes
¿Cómo instalo PyTorch Lightning?
¿Cuál es la diferencia entre DDP, FSDP y DeepSpeed?
¿Cómo depuro mi modelo rápidamente?
¿Puedo usar esta skill solo para inferencia?
¿Cómo reanudo el entrenamiento desde un checkpoint?
¿Qué registradores son compatibles?
Detalles del desarrollador
Autor
K-Dense-AILicencia
Apache-2.0 license
Repositorio
https://github.com/K-Dense-AI/claude-scientific-skills/tree/main/scientific-skills/pytorch-lightningRef.
main
Estructura de archivos