pytorch-lightning
Construir redes neurais com PyTorch Lightning
Também disponível em: davila7
Esta skill ajuda a organizar código PyTorch em LightningModules reutilizáveis. Fornece templates e documentação para configurar treinamento multi-GPU, implementar pipelines de dados e configurar rastreamento de experimentos com ferramentas populares como W&B e TensorBoard.
Baixar o ZIP da skill
Upload no Claude
Vá em Configurações → Capacidades → Skills → Upload skill
Ative e comece a usar
Testar
A utilizar "pytorch-lightning". Criar um LightningModule CNN simples para classificação de imagem
Resultado esperado:
- Uma classe LightningModule com __init__, training_step, validation_step e configure_optimizers
- Exemplo de arquitetura CNN usando camadas torch.nn
- Loop de treinamento que retorna loss e registra métricas com self.log()
- Configuração de otimizador com Adam e agendador de taxa de aprendizado
A utilizar "pytorch-lightning". Configurar Trainer para treinamento em GPU com checkpointing
Resultado esperado:
- Configuração de Trainer com accelerator='gpu', devices=2
- Callback ModelCheckpoint para salvar o melhor modelo baseado em validation loss
- Callback EarlyStopping para interromper treinamento quando métricas estagnam
- Configuração de barra de progresso e logger
Auditoria de Segurança
SeguroAll 843 static findings are false positives. The 'Ruby/shell backtick execution' alerts are markdown code blocks, 'weak cryptographic algorithm' alerts flag normal text like 'DDP/FSDP', and 'eval()' refers to PyTorch's model.eval() method. This is legitimate deep learning documentation with no malicious code.
Fatores de risco
⚙️ Comandos externos (4)
⚡ Contém scripts (2)
🌐 Acesso à rede (2)
Pontuação de qualidade
O Que Você Pode Construir
Organizar experimentos de pesquisa
Estruturar código PyTorch em LightningModules reutilizáveis para experimentação mais limpa e iteração mais rápida.
Escalar treinamento para múltiplas GPUs
Configurar treinamento distribuído em clusters com DDP, FSDP ou DeepSpeed para treinamento de modelos grandes.
Rastrear experimentos automaticamente
Integrar com W&B, TensorBoard ou MLflow para registrar métricas, hiperparâmetros e checkpoints de modelo.
Tente Estes Prompts
Mostre-me como criar um LightningModule para um classificador de imagem com métodos training_step, validation_step e configure_optimizers.
Como configuro um Trainer para treinamento multi-GPU usando estratégia DDP com 4 GPUs em um único nó?
Crie um LightningDataModule para carregar dados de imagem com transforms personalizados para conjuntos de treinamento, validação e teste.
Configure logging com Weights & Biases usando WandbLogger no PyTorch Lightning para rastrear métricas de treinamento e hiperparâmetros.
Melhores Práticas
- Use self.device em vez de .cuda() para código agnóstico a dispositivo que funciona em GPU e CPU
- Chame self.save_hyperparameters() em __init__() para salvar configuração para reprodutibilidade
- Use self.log() com sync_dist=True ao registrar métricas em treinamento distribuído
Evitar
- Não chame loss.backward() ou optimizer.step() manualmente - deixe o Trainer lidar com otimização
- Evite misturar código de pesquisa (arquitetura de modelo, computação de loss) com código de engenharia (gerenciamento de dispositivo, checkpointing)
- Não use .cuda() diretamente - use self.to(device) ou confie no posicionamento automático de dispositivo do Lightning
Perguntas Frequentes
Como instalo o PyTorch Lightning?
Qual é a diferença entre DDP, FSDP e DeepSpeed?
Como depuro meu modelo rapidamente?
Posso usar esta skill apenas para inferência?
Como retomo treinamento a partir de um checkpoint?
Quais loggers são suportados?
Detalhes do Desenvolvedor
Autor
K-Dense-AILicença
Apache-2.0 license
Repositório
https://github.com/K-Dense-AI/claude-scientific-skills/tree/main/scientific-skills/pytorch-lightningReferência
main
Estrutura de arquivos