المهارات pytorch-lightning

pytorch-lightning

آمن ⚙️ الأوامر الخارجية⚡ يحتوي على سكربتات🌐 الوصول إلى الشبكة

بناء الشبكات العصبية باستخدام PyTorch Lightning

متاح أيضًا من: davila7

تساعدك هذه المهارة في تنظيم كود PyTorch في وحدات LightningModules القابلة لإعادة الاستخدام. توفر قوالب وتوثيقًا لتكوين التدريب متعدد وحدات المعالجة الرسومية، وتنفيذ خطوط أنابيب البيانات، وإعداد تتبع التجارب باستخدام أدوات شائعة مثل W&B و TensorBoard.

يدعم: Claude Codex Code(CC)
🥉 76 برونزي
1

تنزيل ZIP المهارة

2

رفع في Claude

اذهب إلى Settings → Capabilities → Skills → Upload skill

3

فعّل وابدأ الاستخدام

اختبرها

استخدام "pytorch-lightning". إنشاء وحدة LightningModule CNN بسيطة لتصنيف الصور

النتيجة المتوقعة:

  • فئة LightningModule مع __init__ و training_step و validation_step و configure_optimizers
  • مثال على بنية CNN باستخدام طبقات torch.nn
  • حلقة تدريب تُرجع الخسارة وتسجل المقاييس باستخدام self.log()
  • تهيئة المُحسِّن مع جدولة معدل تعلم Adam

استخدام "pytorch-lightning". تكوين مدرب للتدريب على وحدة المعالجة الرسومية مع الحفظ النقطي

النتيجة المتوقعة:

  • تهيئة مدرب مع accelerator='gpu' و devices=2
  • رد نداء ModelCheckpoint لحفظ أفضل نموذج بناءً على خسارة التحقق
  • رد نداء EarlyStopping لإيقاف التدريب عندما تتسطح المقاييس
  • تهيئة شريط التقدم والمسجل

التدقيق الأمني

آمن
v4 • 1/17/2026

All 843 static findings are false positives. The 'Ruby/shell backtick execution' alerts are markdown code blocks, 'weak cryptographic algorithm' alerts flag normal text like 'DDP/FSDP', and 'eval()' refers to PyTorch's model.eval() method. This is legitimate deep learning documentation with no malicious code.

12
الملفات التي تم فحصها
9,738
الأسطر التي تم تحليلها
3
النتائج
4
إجمالي عمليات التدقيق
تم تدقيقه بواسطة: claude عرض سجل التدقيق →

درجة الجودة

68
الهندسة المعمارية
100
قابلية الصيانة
87
المحتوى
22
المجتمع
100
الأمان
83
الامتثال للمواصفات

ماذا يمكنك بناءه

تنظيم تجارب البحث

هيكل كود PyTorch في وحدات LightningModule قابلة لإعادة الاستخدام لتجارب أنظف وتكرار أسرع.

توسيع التدريب إلى وحدات معالجة رسومية متعددة

تكوين التدريب الموزع عبر مجموعات باستخدام DDP أو FSDP أو DeepSpeed لتدريب النماذج الكبيرة.

تتبع التجارب تلقائيًا

الدمج مع W&B أو TensorBoard أو MLflow لتسجيل المقاييس والمعلمات الفائقة ونقاط التحقق للنموذج.

جرّب هذه الموجهات

إعداد النموذج الأساسي
أرني كيف أنشئ وحدة LightningModule مصنف الصور مع طرق training_step و validation_step و configure_optimizers.
التدريب متعدد وحدات المعالجة الرسومية
كيف أقوم بتكوين مدرب للتدريب متعدد وحدات المعالجة الرسومية باستخدام استراتيجية DDP مع 4 وحدات معالجة رسومية على عقدة واحدة؟
خط أنابيب البيانات
إنشاء وحدة LightningDataModule لتحميل بيانات الصور مع تحويلات مخصصة لمجموعات التدريب والتحقق والاختبار.
تتبع التجارب
إعداد تسجيل Weights & Biases مع WandbLogger في PyTorch Lightning لتتبع مقاييس التدريب والمعلمات الفائقة.

أفضل الممارسات

  • استخدم self.device بدلاً من .cuda() لرمز محايد للجهاز يعمل على GPU و CPU
  • استدعاء self.save_hyperparameters() في __init__() لحفظ التكوين لقابلية التكرار
  • استخدم self.log() مع sync_dist=True عند تسجيل المقاييس في التدريب الموزع

تجنب

  • لا تستدعي loss.backward() أو optimizer.step() يدويًا - دع المدرب يتعامل مع التحسين
  • تجنب خلط كود البحث (بنية النموذج، حساب الخسارة) مع كود الهندسة (إدارة الجهاز، الحفظ النقطي)
  • لا تستخدم .cuda() مباشرة - استخدم self.to(device) أو اعتمد على الوضع التلقائي للجهاز في Lightning

الأسئلة المتكررة

كيف أقوم بتثبيت PyTorch Lightning؟
قم بتشغيل pip install lightning. توفر المهارة قوالب وتوثيقًا بعد التثبيت.
ما الفرق بين DPD و FSDP و DeepSpeed؟
DDP للنماذج أقل من 500 مليون معلمة. FSDP يقسم النموذج عبر وحدات معالجة رسومية لنماذج أكبر. DeepSpeed يقدم ميزات متقدمة مثل تفريغ وحدة المعالجة المركزية.
كيف أقوم بتصحيح نموذجي بسرعة؟
استخدم Trainer(fast_dev_run=True) لتشغيل دفعة واحدة عبر حلقات التدريب والتحقق والاختبار لتصحيح الأخطاء السريع.
هل يمكنني استخدام هذه المهارة للاستدلال فقط؟
نعم، استخدم وضع model.eval() وطريقة trainer.predict() للاستدلال على بيانات جديدة دون تدريب.
كيف أستأنف التدريب من نقطة تحقق؟
مرر ckpt_path='path/to/checkpoint.ckpt' إلى طرق trainer.fit() أو trainer.validate() أو trainer.test().
ما المسجلات المدعومة؟
TensorBoard (افتراضي) و Weights & Biases و MLflow و Neptune و Comet و CSVLogger للملفات المحلية.