Habilidades pytorch-lightning

pytorch-lightning

Seguro ⚙️ Comandos externos⚡ Contém scripts🌐 Acesso à rede

Construir redes neurais com PyTorch Lightning

Também disponível em: davila7

Esta skill ajuda a organizar código PyTorch em LightningModules reutilizáveis. Fornece templates e documentação para configurar treinamento multi-GPU, implementar pipelines de dados e configurar rastreamento de experimentos com ferramentas populares como W&B e TensorBoard.

Suporta: Claude Codex Code(CC)
🥉 76 Bronze
1

Baixar o ZIP da skill

2

Upload no Claude

Vá em Configurações → Capacidades → Skills → Upload skill

3

Ative e comece a usar

Testar

A utilizar "pytorch-lightning". Criar um LightningModule CNN simples para classificação de imagem

Resultado esperado:

  • Uma classe LightningModule com __init__, training_step, validation_step e configure_optimizers
  • Exemplo de arquitetura CNN usando camadas torch.nn
  • Loop de treinamento que retorna loss e registra métricas com self.log()
  • Configuração de otimizador com Adam e agendador de taxa de aprendizado

A utilizar "pytorch-lightning". Configurar Trainer para treinamento em GPU com checkpointing

Resultado esperado:

  • Configuração de Trainer com accelerator='gpu', devices=2
  • Callback ModelCheckpoint para salvar o melhor modelo baseado em validation loss
  • Callback EarlyStopping para interromper treinamento quando métricas estagnam
  • Configuração de barra de progresso e logger

Auditoria de Segurança

Seguro
v4 • 1/17/2026

All 843 static findings are false positives. The 'Ruby/shell backtick execution' alerts are markdown code blocks, 'weak cryptographic algorithm' alerts flag normal text like 'DDP/FSDP', and 'eval()' refers to PyTorch's model.eval() method. This is legitimate deep learning documentation with no malicious code.

12
Arquivos analisados
9,738
Linhas analisadas
3
achados
4
Total de auditorias
Auditado por: claude Ver Histórico de Auditoria →

Pontuação de qualidade

68
Arquitetura
100
Manutenibilidade
87
Conteúdo
22
Comunidade
100
Segurança
83
Conformidade com especificações

O Que Você Pode Construir

Organizar experimentos de pesquisa

Estruturar código PyTorch em LightningModules reutilizáveis para experimentação mais limpa e iteração mais rápida.

Escalar treinamento para múltiplas GPUs

Configurar treinamento distribuído em clusters com DDP, FSDP ou DeepSpeed para treinamento de modelos grandes.

Rastrear experimentos automaticamente

Integrar com W&B, TensorBoard ou MLflow para registrar métricas, hiperparâmetros e checkpoints de modelo.

Tente Estes Prompts

Configuração básica de modelo
Mostre-me como criar um LightningModule para um classificador de imagem com métodos training_step, validation_step e configure_optimizers.
Treinamento multi-GPU
Como configuro um Trainer para treinamento multi-GPU usando estratégia DDP com 4 GPUs em um único nó?
Pipeline de dados
Crie um LightningDataModule para carregar dados de imagem com transforms personalizados para conjuntos de treinamento, validação e teste.
Rastreamento de experimentos
Configure logging com Weights & Biases usando WandbLogger no PyTorch Lightning para rastrear métricas de treinamento e hiperparâmetros.

Melhores Práticas

  • Use self.device em vez de .cuda() para código agnóstico a dispositivo que funciona em GPU e CPU
  • Chame self.save_hyperparameters() em __init__() para salvar configuração para reprodutibilidade
  • Use self.log() com sync_dist=True ao registrar métricas em treinamento distribuído

Evitar

  • Não chame loss.backward() ou optimizer.step() manualmente - deixe o Trainer lidar com otimização
  • Evite misturar código de pesquisa (arquitetura de modelo, computação de loss) com código de engenharia (gerenciamento de dispositivo, checkpointing)
  • Não use .cuda() diretamente - use self.to(device) ou confie no posicionamento automático de dispositivo do Lightning

Perguntas Frequentes

Como instalo o PyTorch Lightning?
Execute pip install lightning. A skill fornece templates e documentação após a instalação.
Qual é a diferença entre DDP, FSDP e DeepSpeed?
DDP para modelos abaixo de 500M parâmetros. FSDP fragmenta modelo entre GPUs para modelos maiores. DeepSpeed oferece recursos avançados como CPU offloading.
Como depuro meu modelo rapidamente?
Use Trainer(fast_dev_run=True) para executar um batch através de loops de treinamento, validação e teste para depuração rápida.
Posso usar esta skill apenas para inferência?
Sim, use modo model.eval() e método trainer.predict() para inferência em novos dados sem treinamento.
Como retomo treinamento a partir de um checkpoint?
Passe ckpt_path='path/to/checkpoint.ckpt' para métodos trainer.fit(), trainer.validate() ou trainer.test().
Quais loggers são suportados?
TensorBoard (padrão), Weights & Biases, MLflow, Neptune, Comet e CSVLogger para arquivos locais.