pytorch-lightning
بناء الشبكات العصبية باستخدام PyTorch Lightning
Auch verfügbar von: davila7
تساعدك هذه المهارة في تنظيم كود PyTorch في وحدات LightningModules القابلة لإعادة الاستخدام. توفر قوالب وتوثيقًا لتكوين التدريب متعدد وحدات المعالجة الرسومية، وتنفيذ خطوط أنابيب البيانات، وإعداد تتبع التجارب باستخدام أدوات شائعة مثل W&B و TensorBoard.
Die Skill-ZIP herunterladen
In Claude hochladen
Gehe zu Einstellungen → Fähigkeiten → Skills → Skill hochladen
Einschalten und loslegen
Teste es
Verwendung von "pytorch-lightning". إنشاء وحدة LightningModule CNN بسيطة لتصنيف الصور
Erwartetes Ergebnis:
- فئة LightningModule مع __init__ و training_step و validation_step و configure_optimizers
- مثال على بنية CNN باستخدام طبقات torch.nn
- حلقة تدريب تُرجع الخسارة وتسجل المقاييس باستخدام self.log()
- تهيئة المُحسِّن مع جدولة معدل تعلم Adam
Verwendung von "pytorch-lightning". تكوين مدرب للتدريب على وحدة المعالجة الرسومية مع الحفظ النقطي
Erwartetes Ergebnis:
- تهيئة مدرب مع accelerator='gpu' و devices=2
- رد نداء ModelCheckpoint لحفظ أفضل نموذج بناءً على خسارة التحقق
- رد نداء EarlyStopping لإيقاف التدريب عندما تتسطح المقاييس
- تهيئة شريط التقدم والمسجل
Sicherheitsaudit
SicherAll 843 static findings are false positives. The 'Ruby/shell backtick execution' alerts are markdown code blocks, 'weak cryptographic algorithm' alerts flag normal text like 'DDP/FSDP', and 'eval()' refers to PyTorch's model.eval() method. This is legitimate deep learning documentation with no malicious code.
Risikofaktoren
⚙️ Externe Befehle (4)
⚡ Enthält Skripte (2)
🌐 Netzwerkzugriff (2)
Qualitätsbewertung
Was du bauen kannst
تنظيم تجارب البحث
هيكل كود PyTorch في وحدات LightningModule قابلة لإعادة الاستخدام لتجارب أنظف وتكرار أسرع.
توسيع التدريب إلى وحدات معالجة رسومية متعددة
تكوين التدريب الموزع عبر مجموعات باستخدام DDP أو FSDP أو DeepSpeed لتدريب النماذج الكبيرة.
تتبع التجارب تلقائيًا
الدمج مع W&B أو TensorBoard أو MLflow لتسجيل المقاييس والمعلمات الفائقة ونقاط التحقق للنموذج.
Probiere diese Prompts
أرني كيف أنشئ وحدة LightningModule مصنف الصور مع طرق training_step و validation_step و configure_optimizers.
كيف أقوم بتكوين مدرب للتدريب متعدد وحدات المعالجة الرسومية باستخدام استراتيجية DDP مع 4 وحدات معالجة رسومية على عقدة واحدة؟
إنشاء وحدة LightningDataModule لتحميل بيانات الصور مع تحويلات مخصصة لمجموعات التدريب والتحقق والاختبار.
إعداد تسجيل Weights & Biases مع WandbLogger في PyTorch Lightning لتتبع مقاييس التدريب والمعلمات الفائقة.
Bewährte Verfahren
- استخدم self.device بدلاً من .cuda() لرمز محايد للجهاز يعمل على GPU و CPU
- استدعاء self.save_hyperparameters() في __init__() لحفظ التكوين لقابلية التكرار
- استخدم self.log() مع sync_dist=True عند تسجيل المقاييس في التدريب الموزع
Vermeiden
- لا تستدعي loss.backward() أو optimizer.step() يدويًا - دع المدرب يتعامل مع التحسين
- تجنب خلط كود البحث (بنية النموذج، حساب الخسارة) مع كود الهندسة (إدارة الجهاز، الحفظ النقطي)
- لا تستخدم .cuda() مباشرة - استخدم self.to(device) أو اعتمد على الوضع التلقائي للجهاز في Lightning
Häufig gestellte Fragen
كيف أقوم بتثبيت PyTorch Lightning؟
ما الفرق بين DPD و FSDP و DeepSpeed؟
كيف أقوم بتصحيح نموذجي بسرعة؟
هل يمكنني استخدام هذه المهارة للاستدلال فقط؟
كيف أستأنف التدريب من نقطة تحقق؟
ما المسجلات المدعومة؟
Entwicklerdetails
Autor
K-Dense-AILizenz
Apache-2.0 license
Repository
https://github.com/K-Dense-AI/claude-scientific-skills/tree/main/scientific-skills/pytorch-lightningRef
main
Dateistruktur