스킬 pytorch-lightning

pytorch-lightning

안전 ⚙️ 외부 명령어⚡ 스크립트 포함🌐 네트워크 접근

PyTorch Lightning로 신경망 구축하기

또한 다음에서 사용할 수 있습니다: davila7

이 스킬은 PyTorch 코드를 재사용 가능한 LightningModules로 구성하는 데 도움이 됩니다. 다중 GPU 훈련 구성, 데이터 파이프라인 구현, W&B 및 TensorBoard와 같은 인기 있는 도구로 실험 추적 설정에 대한 템플릿과 문서를 제공합니다.

지원: Claude Codex Code(CC)
🥉 76 브론즈
1

스킬 ZIP 다운로드

2

Claude에서 업로드

설정 → 기능 → 스킬 → 스킬 업로드로 이동

3

토글을 켜고 사용 시작

테스트해 보기

"pytorch-lightning" 사용 중입니다. 이미지 분류를 위한 간단한 CNN LightningModule 생성

예상 결과:

  • __init__, training_step, validation_step, configure_optimizers가 포함된 LightningModule 클래스
  • torch.nn 레이어를 사용한 예제 CNN 아키텍처
  • self.log()로 손실을 반환하고 메트릭을 기록하는 훈련 루프
  • Adam 옵티마이저 및 학습률 스케줄러가 포함된 옵티마이저 구성

"pytorch-lightning" 사용 중입니다. 체크포인트가 포함된 GPU 훈련을 위한 Trainer 구성

예상 결과:

  • accelerator='gpu', devices=2가 포함된 Trainer 구성
  • 검증 손실에 따라 최상의 모델을 저장하기 위한 ModelCheckpoint 콜백
  • 메트릭이 정체될 때 훈련을 중단하기 위한 EarlyStopping 콜백
  • 진행률 표시줄 및 로거 구성

보안 감사

안전
v4 • 1/17/2026

All 843 static findings are false positives. The 'Ruby/shell backtick execution' alerts are markdown code blocks, 'weak cryptographic algorithm' alerts flag normal text like 'DDP/FSDP', and 'eval()' refers to PyTorch's model.eval() method. This is legitimate deep learning documentation with no malicious code.

12
스캔된 파일
9,738
분석된 줄 수
3
발견 사항
4
총 감사 수
감사자: claude 감사 이력 보기 →

품질 점수

68
아키텍처
100
유지보수성
87
콘텐츠
22
커뮤니티
100
보안
83
사양 준수

만들 수 있는 것

연구 실험 구성

더 깨끗한 실험과 더 빠른 반복을 위해 PyTorch 코드를 재사용 가능한 LightningModules로 구성합니다.

여러 GPU로 훈련 확장

대형 모델 훈련을 위해 DDP, FSDP 또는 DeepSpeed를 사용하여 클러스터에서 다중 GPU 훈련을 구성합니다.

실험 자동 추적

메트릭, 하이퍼파라미터 및 모델 체크포인트를 기록하기 위해 W&B, TensorBoard 또는 MLflow와 통합합니다.

이 프롬프트를 사용해 보세요

기본 모델 설정
training_step, validation_step, configure_optimizers 메서드가 있는 이미지 분류기를 위한 LightningModule을 만드는 방법을 보여주세요.
다중 GPU 훈련
단일 노드에서 4개의 GPU를 사용하여 DDP 전략으로 다중 GPU 훈련을 위한 Trainer를 어떻게 구성합니까?
데이터 파이프라인
훈련, 검증, 테스트 세트에 대한 커스텀 변환으로 이미지 데이터를 로딩하기 위한 LightningDataModule을 생성합니다.
실험 추적
훈련 메트릭과 하이퍼파라미터를 추적하기 위해 PyTorch Lightning에서 WandbLogger로 Weights & Biases 로깅을 설정합니다.

모범 사례

  • GPU와 CPU에서 모두 작동하는 디바이스에 구애받지 않는 코드의 경우 self.device를 .cuda() 대신 사용
  • 재현성을 위해 구성/configuration을 저장하기 위해 __init__()에서 self.save_hyperparameters() 호출
  • 분산 훈련에서 메트릭을 기록할 때 sync_dist=True와 함께 self.log() 사용

피하기

  • 수동으로 loss.backward()나 optimizer.step()를 호출하지 않음 - Trainer가 최적화를 처리하도록 함
  • 모델 아키텍처, 손실 계산과 같은 연구 코드를 디바이스 관리, 체크포인트와 같은 엔지니어링 코드로 혼합하지 않음
  • .cuda()를 직접 사용하지 않음 - self.to(device)를 사용하거나 Lightning의 자동 디바이스 배치에 의존

자주 묻는 질문

PyTorch Lightning을 어떻게 설치합니까?
pip install lightning를 실행하세요. 설치 후 스킬이 템플릿과 문서를 제공합니다.
DDP, FSDP, DeepSpeed의 차이점은 무엇입니까?
5억 파라미터 미만의 모델에는 DDP. 더 큰 모델에는 FSDP가 GPU에 걸쳐 모델을 샤딩. DeepSpeed는 CPU 오프로딩과 같은 고급 기능을 제공합니다.
모델을 빠르게 디버깅하려면 어떻게 해야 합니까?
Trainer(fast_dev_run=True)를 사용하여 한 배치를 훈련, 검증, 테스트 루프로 빠르게 디버깅합니다.
추론에만 이 스킬을 사용할 수 있습니까?
네, model.eval() 모드와 trainer.predict() 메서드를 사용하여 훈련 없이 새 데이터에 대한 추론을 수행할 수 있습니다.
체크포인트에서 훈련을 어떻게 재개합니까?
ckpt_path='path/to/checkpoint.ckpt'를 trainer.fit(), trainer.validate(), trainer.test() 메서드에 전달합니다.
어떤 로거가 지원합니까?
TensorBoard (기본값), Weights & Biases, MLflow, Neptune, Comet, 로컬 파일용 CSVLogger.