ai-product
بناء منتجات ذكاء اصطناعي جاهزة للإنتاج
حوّل عروض الذكاء الاصطناعي التوضيحية إلى أنظمة إنتاجية. تعلّم هذه المهارة أنماط تكامل LLM، وهندسة RAG، واستراتيجيات التحقق حتى تتمكن من إطلاق ميزات ذكاء اصطناعي تعمل على نطاق واسع.
تنزيل ZIP المهارة
رفع في Claude
اذهب إلى Settings → Capabilities → Skills → Upload skill
فعّل وابدأ الاستخدام
اختبرها
استخدام "ai-product". ساعدني في تصميم ذكاء اصطناعي لدعم العملاء يتحقق من جميع المخرجات قبل الرد على المستخدمين
النتيجة المتوقعة:
إليك هندسة جاهزة للإنتاج لذكاء الاصطناعي لدعم العملاء:
**هيكل الأمر**: أمر النظام مع تعليمات صارمة لتنسيق الإخراج، استعلام المستخدم في قالب مع خطافات التحقق
**طبقات التحقق**:
1. التحقق من المخطط - التأكد من تطابق الاستجابة مع هيكل JSON المتوقع
2. فحص السلامة - فحص المحتوى الضار قبل الرد
3. التحقق الواقعي - الرجوع إلى قاعدة المعرفة للتحقق من الادعاءات
4. فرض التنسيق - التحقق من طول الاستجابة وهيكلها
**التعامل مع الأخطاء**: التدهور السلس مع العودة إلى الوكيل البشري عندما تكون الثقة منخفضة
استخدام "ai-product". LLM الخاص بي بطيء جدًا. كيف يمكنني تحسين زمن الوصول المُدرَك؟
النتيجة المتوقعة:
نفّذ البث باستخدام هذه التقنيات:
1. **أحداث من جانب الخادم (SSE)**: بث الرموز أثناء إنشائها
2. **واجهة مستخدم تدريجية**: عرض الهيكل العظمي أولاً، ثم ملء المحتوى أثناء وصوله
3. **تحديثات تفاؤلية**: عرض الاستجابة المحتملة أثناء إنشاء الذكاء الاصطناعي
4. **إنشاء مجزأ**: تقسيم الاستجابات المعقدة إلى أجزاء أصغر
هذا يمكن أن يقلل زمن الوصول المُدرَك بنسبة 40-60% دون أوقات استجابة نموذج أسرع.
التدقيق الأمني
آمنStatic analysis detected 2 false positive patterns related to 'weak cryptographic algorithm' at lines 3 and 58. These are misidentified keywords ('patterns', 'architecture') in documentation text. This is a documentation-only skill with no executable code, network calls, scripts, filesystem access, or external commands. Safe for publication.
الأنماط المكتشفة
درجة الجودة
ماذا يمكنك بناءه
هندسة تطبيقات LLM
تصميم أنظمة إنتاجية تستخدم LLMs بشكل آمن وموثوق مع التحقق المناسب والتعامل مع الأخطاء.
التحقق من مخرجات الذكاء الاصطناعي
تنفيذ أنظمة السلامة وطبقات التحقق للكشف عن الهلوسات والمحتوى الضار قبل تقديمه للمستخدمين.
تحسين تكاليف الذكاء الاصطناعي
خفض تكاليف LLM API بنسبة 80% من خلال تحسين الأوامر وإدارة السياق والاستخدام الفعال للرموز.
جرّب هذه الموجهات
أحتاج إلى بناء ميزة مدعومة بالذكاء الاصطناعي تقوم بـ [describe use case]. ساعدني في تصميم هندسة جاهزة للإنتاج تتضمن: 1) كيفية هيكلة الأوامر للموثوقية 2) طبقات التحقق التي أحتاجها 3) كيفية التعامل مع الإخفاقات بسلاسة 4) استراتيجيات تحسين التكلفة
راجع هذا الأمر للنشر الإنتاجي: [insert prompt]. حدّد: 1) أوضاع الفشل المحتملة 2) خطوات التحقق المفقودة 3) فرص تحسين نافذة السياق 4) مخاوف التكلفة
نظام الذكاء الاصطناعي الخاص بي ينتج هلوسات في [specific context]. الأمر الحالي هو [insert prompt]. اقترح تعديلات لتقليل الهلوسات مع الحفاظ على الدقة.
أحتاج إلى أن يعيد LLM الخاص بي [describe desired output format]. ساعدني في: 1) تصميم المخطط 2) كتابة الأمر مع التعليمات المناسبة 3) إضافة منطق التحقق 4) التعامل مع إخفاقات التحليل بسلاسة
أفضل الممارسات
- عامل الأوامر ككود: تحكم في الإصدار، اختبر في CI/CD، وراجع التغييرات عبر طلبات السحب
- تحقق دائمًا من صحة مخرجات LLM مع التحقق من صحة المخطط وفحوصات السلامة قبل استخدامها
- ابنِ دفاعًا متعدد الطبقات: طبقات تحقق متعددة تلتقط ما تفقده الفحوصات الفردية
تجنب
- إطلاق عروض ذكاء اصطناعي توضيحية بدون تقوية إنتاجية - سيواجه المستخدمون إخفاقات على نطاق واسع
- حشو نوافذ السياق ببيانات غير ذات صلة - يزيد التكاليف ويقلل الدقة
- الثقة في مخرجات LLM بدون تحقق - ستصل الهلوسات إلى المستخدمين في الإنتاج