📊

shap

آمن ⚙️ الأوامر الخارجية🌐 الوصول إلى الشبكة

شرح تنبؤات النماذج باستخدام SHAP

متاح أيضًا من: davila7

غالباً ما تعمل نماذج التعلم الآلي كصناديق سوداء. يوفر SHAP إطاراً موحداً لشرح أي تنبؤ للنموذج من خلال حساب مساهمات السمات باستخدام قيم Shapley من نظرية الألعاب. استخدم هذه المهارة لتصور أهمية السمات، وتصحيح سلوك النموذج، وتنفيذ الذكاء الاصطناعي القابل للتفسير.

يدعم: Claude Codex Code(CC)
📊 71 كافٍ
1

تنزيل ZIP المهارة

2

رفع في Claude

اذهب إلى Settings → Capabilities → Skills → Upload skill

3

فعّل وابدأ الاستخدام

اختبرها

استخدام "shap". شرح تنبؤات نموذج XGBoost الخاص لانقطاع العملاء

النتيجة المتوقعة:

  • أهم محركات الانقطاع: نوع العقد (0.25)، الرسوم الشهرية (0.18)، مدة الاشتراك (0.15)
  • العملاء بدون عقود سنوية أكثر عرضة للانقطاع بنسبة 25%
  • الرسوم الشهرية الأعلى تزيد احتمالية الانخفاض عندما تكون مدة الاشتراك منخفضة
  • العملاء المخلصون (36+ شهراً) لديهم خطر انقطاع أقل بنسبة 60%

استخدام "shap". لماذا رفض طلب القرض هذا

النتيجة المتوقعة:

  • العوامل الرئيسية التي تقلل احتمالية الموافقة: نسبة الدين إلى الدخل المرتفعة (-0.22)، تاريخ العمل القصير (-0.15)، نسبة استخدام الائتمان المنخفضة (-0.12)
  • العوامل الإيجابية: الدخل المستقر (+0.08)، تاريخ الدفع الجيد (+0.05)
  • العوامل المفقودة: عدم وجود استفسارات ائتمانية حديثة ساعدت قليلاً (+0.03)

التدقيق الأمني

آمن
v4 • 1/17/2026

Documentation-only skill with no executable code. All 295 static findings are false positives: markdown code blocks flagged as shell backticks, 'SHAP' acronym flagged as SHA cryptographic algorithm, GitHub URL path component flagged as C2, and standard documentation URLs. This is a pure reference guide for the SHAP machine learning library.

6
الملفات التي تم فحصها
4,006
الأسطر التي تم تحليلها
2
النتائج
4
إجمالي عمليات التدقيق

عوامل الخطر

تم تدقيقه بواسطة: claude عرض سجل التدقيق →

درجة الجودة

45
الهندسة المعمارية
100
قابلية الصيانة
87
المحتوى
21
المجتمع
100
الأمان
87
الامتثال للمواصفات

ماذا يمكنك بناءه

تصحيح سلوك النموذج

حدد سبب ارتكاب النموذج للأخطاء من خلال فحص قيم SHAP للعينات المصنفة خطأ واكتشاف تسرب البيانات.

إضافة تفسيرات إلى واجهات البرمجة

دمج تفسيرات SHAP في خدمات التنبؤ الإنتاجية مع إسناد السمات لكل تنبؤ.

التحقق من عدالة النموذج

تحقق من التنب المتحيز عبر المجموعات الديموغرافية من خلال مقارنة قيم SHAP للسمات المحمية.

جرّب هذه الموجهات

شرح SHAP الأساسي
أنتج رسم بياني SHAP beeswarm لإظهار أهمية السمات لنموذج XGBoost الخاص بي المدرّب على مجموعة البيانات الجدولية الخاصة بي. اعرض أهم 15 سمة مع توزيعاتها.
تنبؤ فردي
اشرح لماذا توقع النموذج نتيجة معينة لعينة واحدة. أنتج رسم waterfall يُظهر كيف ساهمت كل سمة في التنبؤ.
مقارنة النماذج
قارن أهمية السمات بين نماذج Random Forest و XGBoost الخاصة بي باستخدام SHAP. اعرض أي السمات تُرتّب بشكل مختلف بين النموذجين.
تحليل العدالة
حلل نموذجي للتحيز المحتمل عبر مجموعات الجنس والعمر. قارن قيم SHAP للسمات المحمية وحدد是否存在 أي وسطاء.

أفضل الممارسات

  • استخدم TreeExplainer للنماذج القائمة على الأشجار بدلاً من KernelExplainer لحساب أسرع
  • ابدأ بالرسوم البيانية العامة (beeswarm، bar) لفهم الأنماط العامة قبل فحص الت predictions الفردية
  • حدد 50-1000 عينة تمثيلية خلفية لحساب دقيق لقيم SHAP

تجنب

  • استخدام KernelExplainer للنماذج الشجرية عندما يتوفر TreeExplainer (أبطأ بكثير)
  • تفسير قيم SHAP كعلاقات سببية بدون التحقق من المجال
  • تجاهل نوع مخرجات النموذج (log-odds مقابل probability) عند تفسير قيم SHAP

الأسئلة المتكررة

ما هو SHAP؟
SHAP (SHapley Additive exPlanations) هو نهج قائم على نظرية الألعاب لشرح تنبؤات النموذج من خلال حساب مساهمة كل سمة باستخدام قيم Shapley.
أي مُفسّر يجب أن أستخدم؟
استخدم TreeExplainer لـ XGBoost/LightGBM، و DeepExplainer للشبكات العصبية، و LinearExplainer للنماذج الخطية، و KernelExplainer فقط كملاذ أخير.
لماذا حساب قيم SHAP بطيء لدي؟
KernelExplainer بطيء. تبديل إلى مُفسّر متخصص لنوع النموذج الخاص بك أو أخذ عينات من بياناتك إلى 100-1000 صف للتصور.
ماذا تعني قيم SHAP الإيجابية والسلبية؟
قيم SHAP الإيجابية تدفع التنبؤات للأعلى؛ القيم السلبية تدفع التنبؤات للأسفل. يُظهر المقدار قوة تأثير كل سمة.
هل يمكن لـ SHAP اكتشاف تسرب البيانات؟
نعم. قد تشير أهمية السمة المرتفعة بشكل غير متوقع على سمات معينة إلى تسرب البيانات أو سمات إشكالية يجب إزالتها.
هل يعمل SHAP مع جميع أنواع النماذج؟
نعم. يعمل SHAP مع أي نموذج من خلال KernelExplainer، لكن المُفسّرات المتخصصة (Tree، Deep، Linear) أسرع بكثير ويُنصح بها.

تفاصيل المطور

المؤلف

K-Dense-AI

الترخيص

MIT license

مرجع

main

بنية الملفات