Fähigkeiten pytorch-lightning

pytorch-lightning

Sicher ⚙️ Externe Befehle⚡ Enthält Skripte🌐 Netzwerkzugriff

Neuronale Netze mit PyTorch Lightning erstellen

Auch verfügbar von: davila7

Diese Skill hilft dir, PyTorch-Code in wiederverwendbare LightningModules zu organisieren. Sie bietet Vorlagen und Dokumentation zum Konfigurieren von Multi-GPU-Training, zum Implementieren von Datenpipelines und zum Einrichten von Experiment-Tracking mit beliebten Tools wie W&B und TensorBoard.

Unterstützt: Claude Codex Code(CC)
🥉 76 Bronze
1

Die Skill-ZIP herunterladen

2

In Claude hochladen

Gehe zu Einstellungen → Fähigkeiten → Skills → Skill hochladen

3

Einschalten und loslegen

Teste es

Verwendung von "pytorch-lightning". Create a simple CNN LightningModule for image classification

Erwartetes Ergebnis:

  • Eine LightningModule-Klasse mit __init__, training_step, validation_step und configure_optimizers
  • Beispiel-CNN-Architektur mit torch.nn-Schichten
  • Trainingsschleife, die den Verlust zurückgibt und Metriken mit self.log() protokolliert
  • Optimizer-Konfiguration mit Adam und Lernraten-Scheduler

Verwendung von "pytorch-lightning". Configure Trainer for GPU training with checkpointing

Erwartetes Ergebnis:

  • Trainer-Konfiguration mit accelerator='gpu', devices=2
  • ModelCheckpoint-Callback zum Speichern des besten Modells basierend auf Validierungsverlust
  • EarlyStopping-Callback, der das Training stoppt, wenn Metriken ein Plateau erreichen
  • Konfiguration von Fortschrittsbalken und Logger

Sicherheitsaudit

Sicher
v4 • 1/17/2026

All 843 static findings are false positives. The 'Ruby/shell backtick execution' alerts are markdown code blocks, 'weak cryptographic algorithm' alerts flag normal text like 'DDP/FSDP', and 'eval()' refers to PyTorch's model.eval() method. This is legitimate deep learning documentation with no malicious code.

12
Gescannte Dateien
9,738
Analysierte Zeilen
3
befunde
4
Gesamtzahl Audits
Auditiert von: claude Audit-Verlauf anzeigen →

Qualitätsbewertung

68
Architektur
100
Wartbarkeit
87
Inhalt
22
Community
100
Sicherheit
83
Spezifikationskonformität

Was du bauen kannst

Forschungsexperimente organisieren

Strukturiere PyTorch-Code in wiederverwendbare LightningModules für sauberere Experimente und schnellere Iteration.

Training auf mehrere GPUs skalieren

Konfiguriere verteiltes Training über Cluster mit DDP, FSDP oder DeepSpeed für das Training großer Modelle.

Experimente automatisch nachverfolgen

Integriere W&B, TensorBoard oder MLflow, um Metriken, Hyperparameter und Modell-Checkpoints zu protokollieren.

Probiere diese Prompts

Grundlegendes Modell-Setup
Zeige mir, wie ich ein LightningModule für einen Bildklassifikator mit den Methoden training_step, validation_step und configure_optimizers erstelle.
Multi-GPU-Training
Wie konfiguriere ich einen Trainer für Multi-GPU-Training mit der DDP-Strategie und 4 GPUs auf einem einzelnen Knoten?
Datenpipeline
Erstelle ein LightningDataModule zum Laden von Bilddaten mit benutzerdefinierten Transforms für Trainings-, Validierungs- und Testsets.
Experiment-Tracking
Richte Weights & Biases-Logging mit WandbLogger in PyTorch Lightning ein, um Trainingsmetriken und Hyperparameter zu verfolgen.

Bewährte Verfahren

  • Verwende self.device statt .cuda() für geräteagnostischen Code, der auf GPU und CPU funktioniert
  • Rufe self.save_hyperparameters() in __init__() auf, um die Konfiguration für Reproduzierbarkeit zu speichern
  • Verwende self.log() mit sync_dist=True beim Protokollieren von Metriken im verteilten Training

Vermeiden

  • Rufe loss.backward() oder optimizer.step() nicht manuell auf – lass den Trainer die Optimierung übernehmen
  • Vermeide das Mischen von Forschungscode (Modellarchitektur, Verlustberechnung) mit Engineering-Code (Gerätemanagement, Checkpointing)
  • Verwende .cuda() nicht direkt – nutze self.to(device) oder verlasse dich auf die automatische Gerätezuweisung von Lightning

Häufig gestellte Fragen

Wie installiere ich PyTorch Lightning?
Führe pip install lightning aus. Die Skill stellt nach der Installation Vorlagen und Dokumentation bereit.
Was ist der Unterschied zwischen DDP, FSDP und DeepSpeed?
DDP für Modelle unter 500M Parametern. FSDP shardet das Modell über GPUs für größere Modelle. DeepSpeed bietet erweiterte Funktionen wie CPU-Offloading.
Wie debugge ich mein Modell schnell?
Verwende Trainer(fast_dev_run=True), um einen Batch durch Trainings-, Validierungs- und Testschleifen laufen zu lassen, für schnelles Debugging.
Kann ich diese Skill nur für Inferenz verwenden?
Ja, nutze den Modus model.eval() und die Methode trainer.predict() für Inferenz auf neuen Daten ohne Training.
Wie setze ich das Training von einem Checkpoint fort?
Übergebe ckpt_path='path/to/checkpoint.ckpt' an trainer.fit(), trainer.validate() oder trainer.test().
Welche Logger werden unterstützt?
TensorBoard (Standard), Weights & Biases, MLflow, Neptune, Comet und CSVLogger für lokale Dateien.