Fähigkeiten pytorch-lightning

pytorch-lightning

Sicher ⚙️ Externe Befehle⚡ Enthält Skripte🌐 Netzwerkzugriff

Construir redes neurais com PyTorch Lightning

Auch verfügbar von: davila7

Esta skill ajuda a organizar código PyTorch em LightningModules reutilizáveis. Fornece templates e documentação para configurar treinamento multi-GPU, implementar pipelines de dados e configurar rastreamento de experimentos com ferramentas populares como W&B e TensorBoard.

Unterstützt: Claude Codex Code(CC)
🥉 76 Bronze
1

Die Skill-ZIP herunterladen

2

In Claude hochladen

Gehe zu Einstellungen → Fähigkeiten → Skills → Skill hochladen

3

Einschalten und loslegen

Teste es

Verwendung von "pytorch-lightning". Criar um LightningModule CNN simples para classificação de imagem

Erwartetes Ergebnis:

  • Uma classe LightningModule com __init__, training_step, validation_step e configure_optimizers
  • Exemplo de arquitetura CNN usando camadas torch.nn
  • Loop de treinamento que retorna loss e registra métricas com self.log()
  • Configuração de otimizador com Adam e agendador de taxa de aprendizado

Verwendung von "pytorch-lightning". Configurar Trainer para treinamento em GPU com checkpointing

Erwartetes Ergebnis:

  • Configuração de Trainer com accelerator='gpu', devices=2
  • Callback ModelCheckpoint para salvar o melhor modelo baseado em validation loss
  • Callback EarlyStopping para interromper treinamento quando métricas estagnam
  • Configuração de barra de progresso e logger

Sicherheitsaudit

Sicher
v4 • 1/17/2026

All 843 static findings are false positives. The 'Ruby/shell backtick execution' alerts are markdown code blocks, 'weak cryptographic algorithm' alerts flag normal text like 'DDP/FSDP', and 'eval()' refers to PyTorch's model.eval() method. This is legitimate deep learning documentation with no malicious code.

12
Gescannte Dateien
9,738
Analysierte Zeilen
3
befunde
4
Gesamtzahl Audits
Auditiert von: claude Audit-Verlauf anzeigen →

Qualitätsbewertung

68
Architektur
100
Wartbarkeit
87
Inhalt
21
Community
100
Sicherheit
83
Spezifikationskonformität

Was du bauen kannst

Organizar experimentos de pesquisa

Estruturar código PyTorch em LightningModules reutilizáveis para experimentação mais limpa e iteração mais rápida.

Escalar treinamento para múltiplas GPUs

Configurar treinamento distribuído em clusters com DDP, FSDP ou DeepSpeed para treinamento de modelos grandes.

Rastrear experimentos automaticamente

Integrar com W&B, TensorBoard ou MLflow para registrar métricas, hiperparâmetros e checkpoints de modelo.

Probiere diese Prompts

Configuração básica de modelo
Mostre-me como criar um LightningModule para um classificador de imagem com métodos training_step, validation_step e configure_optimizers.
Treinamento multi-GPU
Como configuro um Trainer para treinamento multi-GPU usando estratégia DDP com 4 GPUs em um único nó?
Pipeline de dados
Crie um LightningDataModule para carregar dados de imagem com transforms personalizados para conjuntos de treinamento, validação e teste.
Rastreamento de experimentos
Configure logging com Weights & Biases usando WandbLogger no PyTorch Lightning para rastrear métricas de treinamento e hiperparâmetros.

Bewährte Verfahren

  • Use self.device em vez de .cuda() para código agnóstico a dispositivo que funciona em GPU e CPU
  • Chame self.save_hyperparameters() em __init__() para salvar configuração para reprodutibilidade
  • Use self.log() com sync_dist=True ao registrar métricas em treinamento distribuído

Vermeiden

  • Não chame loss.backward() ou optimizer.step() manualmente - deixe o Trainer lidar com otimização
  • Evite misturar código de pesquisa (arquitetura de modelo, computação de loss) com código de engenharia (gerenciamento de dispositivo, checkpointing)
  • Não use .cuda() diretamente - use self.to(device) ou confie no posicionamento automático de dispositivo do Lightning

Häufig gestellte Fragen

Como instalo o PyTorch Lightning?
Execute pip install lightning. A skill fornece templates e documentação após a instalação.
Qual é a diferença entre DDP, FSDP e DeepSpeed?
DDP para modelos abaixo de 500M parâmetros. FSDP fragmenta modelo entre GPUs para modelos maiores. DeepSpeed oferece recursos avançados como CPU offloading.
Como depuro meu modelo rapidamente?
Use Trainer(fast_dev_run=True) para executar um batch através de loops de treinamento, validação e teste para depuração rápida.
Posso usar esta skill apenas para inferência?
Sim, use modo model.eval() e método trainer.predict() para inferência em novos dados sem treinamento.
Como retomo treinamento a partir de um checkpoint?
Passe ckpt_path='path/to/checkpoint.ckpt' para métodos trainer.fit(), trainer.validate() ou trainer.test().
Quais loggers são suportados?
TensorBoard (padrão), Weights & Biases, MLflow, Neptune, Comet e CSVLogger para arquivos locais.