スキル pytorch-lightning

pytorch-lightning

安全 ⚙️ 外部コマンド⚡ スクリプトを含む🌐 ネットワークアクセス

PyTorch Lightningでニューラルネットワークを構築

こちらからも入手できます: davila7

このスキルは、PyTorchコードを再利用可能なLightningModuleに整理するのに役立ちます。マルチGPUトレーニングの設定、データパイプラインの実装、W&BやTensorBoardなどの一般的なツールでの実験トラッキングの設定のためのテンプレートとドキュメントを提供します。

対応: Claude Codex Code(CC)
🥉 76 ブロンズ
1

スキルZIPをダウンロード

2

Claudeでアップロード

設定 → 機能 → スキル → スキルをアップロードへ移動

3

オンにして利用開始

テストする

「pytorch-lightning」を使用しています。 画像分類のためのシンプルなCNN LightningModuleを作成する

期待される結果:

  • __init__、training_step、validation_step、configure_optimizersを持つLightningModuleクラス
  • torch.nnレイヤーを使用したCNNアーキテクチャの例
  • lossを返してself.log()でメトリクスをログに記録するトレーニングループ
  • Adamと学習率スケジューラを使用したOptimizer設定

「pytorch-lightning」を使用しています。 チェックポイント付きGPUトレーニング用のTrainerを設定する

期待される結果:

  • accelerator='gpu'、devices=2を持つTrainer設定
  • バリデーションlossに基づいて最良のモデルを保存するModelCheckpointコールバック
  • メトリクスが停滞した際にトレーニングを停止するEarlyStoppingコールバック
  • 進捗バーとロガー設定

セキュリティ監査

安全
v4 • 1/17/2026

All 843 static findings are false positives. The 'Ruby/shell backtick execution' alerts are markdown code blocks, 'weak cryptographic algorithm' alerts flag normal text like 'DDP/FSDP', and 'eval()' refers to PyTorch's model.eval() method. This is legitimate deep learning documentation with no malicious code.

12
スキャンされたファイル
9,738
解析された行数
3
検出結果
4
総監査数
監査者: claude 監査履歴を表示 →

品質スコア

68
アーキテクチャ
100
保守性
87
コンテンツ
22
コミュニティ
100
セキュリティ
83
仕様準拠

作れるもの

研究実験を整理する

よりクリーンな実験と迅速な反復のために、PyTorchコードを再利用可能なLightningModuleに構造化します。

トレーニングを複数のGPUにスケールする

大規模なモデルトレーニングのために、DDP、FSDP、またはDeepSpeedを使用してクラスター内の分散トレーニングを設定します。

実験を自動的に追跡する

W&B、TensorBoard、またはMLflowと統合して、メトリクス、ハイパーパラメータ、モデルのチェックポイントをログに記録します。

これらのプロンプトを試す

基本的なモデルセットアップ
training_step、validation_step、configure_optimizersメソッドを持つ画像分類用のLightningModuleの作成方法を示してください。
マルチGPUトレーニング
単一ノード上の4つのGPUでDDP戦略を使用したマルチGPUトレーニング用のTrainerをどのように設定すればよいですか?
データパイプライン
トレーニング、バリデーション、テストセット用のカスタムトランスフォームを持つ画像データを読み込むためのLightningDataModuleを作成してください。
実験トラッキング
トレーニングメトリクスとハイパーパラメータを追跡するために、PyTorch LightningでWandbLoggerを使用したWeights & Biasesロギングを設定してください。

ベストプラクティス

  • GPUとCPUで動作するデバイスに依存しないコードには、.cuda()ではなくself.deviceを使用する
  • 再現性のために構成を保存するには、__init__()でself.save_hyperparameters()を呼び出す
  • 分散トレーニングでメトリクスをログ記録する場合は、sync_dist=Trueでself.log()を使用する

回避

  • loss.backward()やoptimizer.step()を手動で呼び出さないでください - Trainerに最適化を任せる
  • 研究コード(モデルアーキテクチャ、損失計算)とエンジニアリングコード(デバイス管理、チェックポイント)を混在させない
  • .cuda()を直接使用しない - self.to(device)を使用するか、Lightningの自動デバイス配置に任せる

よくある質問

PyTorch Lightningをインストールするにはどうすればよいですか?
pip install lightningを実行してください。このスキルはインストール後にテンプレートとドキュメントを提供します。
DDP、FSDP、DeepSpeedの違いは何ですか?
500Mパラメータ未満のモデルにはDDPを使用します。より大きなモデルにはFSDPがモデルをGPU間でシャーディングします。DeepSpeedはCPUオフロードなどの高度な機能を提供します。
モデルを迅速にデバッグするにはどうすればよいですか?
Trainer(fast_dev_run=True)を使用して、迅速なデバッグのために1つのバッチをトレーニング、バリデーション、テストループで実行します。
このスキルを推論のみに使用できますか?
はい、model.eval()モードとtrainer.predict()メソッドを使用して、トレーニングなしで新しいデータに対する推論を行うことができます。
チェックポイントからトレーニングを再開するにはどうすればよいですか?
ckpt_path='path/to/checkpoint.ckpt'をtrainer.fit()、trainer.validate()、またはtrainer.test()メソッドに渡します。
どのようなロガーがサポートされていますか?
TensorBoard(デフォルト)、Weights & Biases、MLflow、Neptune、Comet、ローカルファイル用のCSVLoggerがサポートされています。