Fähigkeiten pytorch-lightning

pytorch-lightning

Sicher ⚙️ Externe Befehle⚡ Enthält Skripte🌐 Netzwerkzugriff

PyTorch Lightning로 신경망 구축하기

Auch verfügbar von: davila7

이 스킬은 PyTorch 코드를 재사용 가능한 LightningModules로 구성하는 데 도움이 됩니다. 다중 GPU 훈련 구성, 데이터 파이프라인 구현, W&B 및 TensorBoard와 같은 인기 있는 도구로 실험 추적 설정에 대한 템플릿과 문서를 제공합니다.

Unterstützt: Claude Codex Code(CC)
🥉 76 Bronze
1

Die Skill-ZIP herunterladen

2

In Claude hochladen

Gehe zu Einstellungen → Fähigkeiten → Skills → Skill hochladen

3

Einschalten und loslegen

Teste es

Verwendung von "pytorch-lightning". 이미지 분류를 위한 간단한 CNN LightningModule 생성

Erwartetes Ergebnis:

  • __init__, training_step, validation_step, configure_optimizers가 포함된 LightningModule 클래스
  • torch.nn 레이어를 사용한 예제 CNN 아키텍처
  • self.log()로 손실을 반환하고 메트릭을 기록하는 훈련 루프
  • Adam 옵티마이저 및 학습률 스케줄러가 포함된 옵티마이저 구성

Verwendung von "pytorch-lightning". 체크포인트가 포함된 GPU 훈련을 위한 Trainer 구성

Erwartetes Ergebnis:

  • accelerator='gpu', devices=2가 포함된 Trainer 구성
  • 검증 손실에 따라 최상의 모델을 저장하기 위한 ModelCheckpoint 콜백
  • 메트릭이 정체될 때 훈련을 중단하기 위한 EarlyStopping 콜백
  • 진행률 표시줄 및 로거 구성

Sicherheitsaudit

Sicher
v4 • 1/17/2026

All 843 static findings are false positives. The 'Ruby/shell backtick execution' alerts are markdown code blocks, 'weak cryptographic algorithm' alerts flag normal text like 'DDP/FSDP', and 'eval()' refers to PyTorch's model.eval() method. This is legitimate deep learning documentation with no malicious code.

12
Gescannte Dateien
9,738
Analysierte Zeilen
3
befunde
4
Gesamtzahl Audits
Auditiert von: claude Audit-Verlauf anzeigen →

Qualitätsbewertung

68
Architektur
100
Wartbarkeit
87
Inhalt
21
Community
100
Sicherheit
83
Spezifikationskonformität

Was du bauen kannst

연구 실험 구성

더 깨끗한 실험과 더 빠른 반복을 위해 PyTorch 코드를 재사용 가능한 LightningModules로 구성합니다.

여러 GPU로 훈련 확장

대형 모델 훈련을 위해 DDP, FSDP 또는 DeepSpeed를 사용하여 클러스터에서 다중 GPU 훈련을 구성합니다.

실험 자동 추적

메트릭, 하이퍼파라미터 및 모델 체크포인트를 기록하기 위해 W&B, TensorBoard 또는 MLflow와 통합합니다.

Probiere diese Prompts

기본 모델 설정
training_step, validation_step, configure_optimizers 메서드가 있는 이미지 분류기를 위한 LightningModule을 만드는 방법을 보여주세요.
다중 GPU 훈련
단일 노드에서 4개의 GPU를 사용하여 DDP 전략으로 다중 GPU 훈련을 위한 Trainer를 어떻게 구성합니까?
데이터 파이프라인
훈련, 검증, 테스트 세트에 대한 커스텀 변환으로 이미지 데이터를 로딩하기 위한 LightningDataModule을 생성합니다.
실험 추적
훈련 메트릭과 하이퍼파라미터를 추적하기 위해 PyTorch Lightning에서 WandbLogger로 Weights & Biases 로깅을 설정합니다.

Bewährte Verfahren

  • GPU와 CPU에서 모두 작동하는 디바이스에 구애받지 않는 코드의 경우 self.device를 .cuda() 대신 사용
  • 재현성을 위해 구성/configuration을 저장하기 위해 __init__()에서 self.save_hyperparameters() 호출
  • 분산 훈련에서 메트릭을 기록할 때 sync_dist=True와 함께 self.log() 사용

Vermeiden

  • 수동으로 loss.backward()나 optimizer.step()를 호출하지 않음 - Trainer가 최적화를 처리하도록 함
  • 모델 아키텍처, 손실 계산과 같은 연구 코드를 디바이스 관리, 체크포인트와 같은 엔지니어링 코드로 혼합하지 않음
  • .cuda()를 직접 사용하지 않음 - self.to(device)를 사용하거나 Lightning의 자동 디바이스 배치에 의존

Häufig gestellte Fragen

PyTorch Lightning을 어떻게 설치합니까?
pip install lightning를 실행하세요. 설치 후 스킬이 템플릿과 문서를 제공합니다.
DDP, FSDP, DeepSpeed의 차이점은 무엇입니까?
5억 파라미터 미만의 모델에는 DDP. 더 큰 모델에는 FSDP가 GPU에 걸쳐 모델을 샤딩. DeepSpeed는 CPU 오프로딩과 같은 고급 기능을 제공합니다.
모델을 빠르게 디버깅하려면 어떻게 해야 합니까?
Trainer(fast_dev_run=True)를 사용하여 한 배치를 훈련, 검증, 테스트 루프로 빠르게 디버깅합니다.
추론에만 이 스킬을 사용할 수 있습니까?
네, model.eval() 모드와 trainer.predict() 메서드를 사용하여 훈련 없이 새 데이터에 대한 추론을 수행할 수 있습니다.
체크포인트에서 훈련을 어떻게 재개합니까?
ckpt_path='path/to/checkpoint.ckpt'를 trainer.fit(), trainer.validate(), trainer.test() 메서드에 전달합니다.
어떤 로거가 지원합니까?
TensorBoard (기본값), Weights & Biases, MLflow, Neptune, Comet, 로컬 파일용 CSVLogger.