pytorch-lightning
Neuronale Netze mit PyTorch Lightning erstellen
Auch verfügbar von: davila7
Diese Skill hilft dir, PyTorch-Code in wiederverwendbare LightningModules zu organisieren. Sie bietet Vorlagen und Dokumentation zum Konfigurieren von Multi-GPU-Training, zum Implementieren von Datenpipelines und zum Einrichten von Experiment-Tracking mit beliebten Tools wie W&B und TensorBoard.
Die Skill-ZIP herunterladen
In Claude hochladen
Gehe zu Einstellungen → Fähigkeiten → Skills → Skill hochladen
Einschalten und loslegen
Teste es
Verwendung von "pytorch-lightning". Create a simple CNN LightningModule for image classification
Erwartetes Ergebnis:
- Eine LightningModule-Klasse mit __init__, training_step, validation_step und configure_optimizers
- Beispiel-CNN-Architektur mit torch.nn-Schichten
- Trainingsschleife, die den Verlust zurückgibt und Metriken mit self.log() protokolliert
- Optimizer-Konfiguration mit Adam und Lernraten-Scheduler
Verwendung von "pytorch-lightning". Configure Trainer for GPU training with checkpointing
Erwartetes Ergebnis:
- Trainer-Konfiguration mit accelerator='gpu', devices=2
- ModelCheckpoint-Callback zum Speichern des besten Modells basierend auf Validierungsverlust
- EarlyStopping-Callback, der das Training stoppt, wenn Metriken ein Plateau erreichen
- Konfiguration von Fortschrittsbalken und Logger
Sicherheitsaudit
SicherAll 843 static findings are false positives. The 'Ruby/shell backtick execution' alerts are markdown code blocks, 'weak cryptographic algorithm' alerts flag normal text like 'DDP/FSDP', and 'eval()' refers to PyTorch's model.eval() method. This is legitimate deep learning documentation with no malicious code.
Risikofaktoren
⚙️ Externe Befehle (4)
⚡ Enthält Skripte (2)
🌐 Netzwerkzugriff (2)
Qualitätsbewertung
Was du bauen kannst
Forschungsexperimente organisieren
Strukturiere PyTorch-Code in wiederverwendbare LightningModules für sauberere Experimente und schnellere Iteration.
Training auf mehrere GPUs skalieren
Konfiguriere verteiltes Training über Cluster mit DDP, FSDP oder DeepSpeed für das Training großer Modelle.
Experimente automatisch nachverfolgen
Integriere W&B, TensorBoard oder MLflow, um Metriken, Hyperparameter und Modell-Checkpoints zu protokollieren.
Probiere diese Prompts
Zeige mir, wie ich ein LightningModule für einen Bildklassifikator mit den Methoden training_step, validation_step und configure_optimizers erstelle.
Wie konfiguriere ich einen Trainer für Multi-GPU-Training mit der DDP-Strategie und 4 GPUs auf einem einzelnen Knoten?
Erstelle ein LightningDataModule zum Laden von Bilddaten mit benutzerdefinierten Transforms für Trainings-, Validierungs- und Testsets.
Richte Weights & Biases-Logging mit WandbLogger in PyTorch Lightning ein, um Trainingsmetriken und Hyperparameter zu verfolgen.
Bewährte Verfahren
- Verwende self.device statt .cuda() für geräteagnostischen Code, der auf GPU und CPU funktioniert
- Rufe self.save_hyperparameters() in __init__() auf, um die Konfiguration für Reproduzierbarkeit zu speichern
- Verwende self.log() mit sync_dist=True beim Protokollieren von Metriken im verteilten Training
Vermeiden
- Rufe loss.backward() oder optimizer.step() nicht manuell auf – lass den Trainer die Optimierung übernehmen
- Vermeide das Mischen von Forschungscode (Modellarchitektur, Verlustberechnung) mit Engineering-Code (Gerätemanagement, Checkpointing)
- Verwende .cuda() nicht direkt – nutze self.to(device) oder verlasse dich auf die automatische Gerätezuweisung von Lightning
Häufig gestellte Fragen
Wie installiere ich PyTorch Lightning?
Was ist der Unterschied zwischen DDP, FSDP und DeepSpeed?
Wie debugge ich mein Modell schnell?
Kann ich diese Skill nur für Inferenz verwenden?
Wie setze ich das Training von einem Checkpoint fort?
Welche Logger werden unterstützt?
Entwicklerdetails
Autor
K-Dense-AILizenz
Apache-2.0 license
Repository
https://github.com/K-Dense-AI/claude-scientific-skills/tree/main/scientific-skills/pytorch-lightningRef
main
Dateistruktur