技能 agentdb-learning-plugins
🧠

agentdb-learning-plugins

安全 🌐 网络访问📁 文件系统访问⚙️ 外部命令

تدريب وكلاء الذكاء الاصطناعي باستخدام خوارزميات التعلم المعزز

也可从以下获取: ruvnet

يتطلب بناء وكلاء ذكاء اصطناعي ذاتيين التعلم تنفيذ خوارزميات تعلم معقدة من الصفر. توفر AgentDB Learning Plugins وصولاً جاهزاً للاستخدام إلى تسع خوارزميات مثبتة الفعالية بما في ذلك Decision Transformer و Q-Learning، مما يمكّنك من تدريب وكلاء مستقلين يتحسنون من خلال الخبرة.

支持: Claude Codex Code(CC)
📊 69 充足
1

下载技能 ZIP

2

在 Claude 中上传

前往 设置 → 功能 → 技能 → 上传技能

3

开启并开始使用

测试它

正在使用“agentdb-learning-plugins”。 Create a Q-Learning agent plugin for a grid navigation task with discrete actions

预期结果:

  • Successfully created Q-Learning agent plugin named 'grid-navigator'
  • Algorithm: Q-Learning (Off-Policy, Value-Based Learning)
  • Configuration Applied:
  • - Learning rate: 0.001
  • - Discount factor (gamma): 0.99
  • - Exploration rate (epsilon): 0.1 with 0.995 decay
  • Next Steps for Training:
  • 1. Define states as numerical arrays (example: position coordinates)
  • 2. Store experiences with state, action, reward, next_state, and done flag
  • 3. Call training method with epoch count and batch size
  • Plugin is ready to receive training experiences

正在使用“agentdb-learning-plugins”。 Show me the training metrics after running 100 epochs on my collected experiences

预期结果:

  • Training Completed Successfully
  • Final Training Loss: 0.023
  • Validation Loss: 0.028
  • Training Duration: 1,523 milliseconds
  • Total Epochs: 100
  • Batch Size: 64
  • Model shows good convergence with low overfitting (validation loss close to training loss)

正在使用“agentdb-learning-plugins”。 List all available reinforcement learning algorithm templates I can use

预期结果:

  • Available AgentDB Learning Algorithm Templates:
  • 1. Decision Transformer - Offline RL via sequence modeling (recommended for beginners)
  • 2. Q-Learning - Value-based off-policy learning for discrete actions
  • 3. SARSA - On-policy value learning for safe exploration
  • 4. Actor-Critic - Policy gradient with value baseline for continuous control
  • 5. Active Learning - Query-based learning for label efficiency
  • 6. Adversarial Training - Robustness enhancement against perturbations
  • 7. Curriculum Learning - Progressive difficulty training
  • 8. Federated Learning - Distributed privacy-preserving training
  • 9. Multi-Task Learning - Transfer learning across related tasks

质量评分

38
架构
100
可维护性
87
内容
20
社区
100
安全
87
规范符合性

你能构建什么

بناء وكلاء ألعاب ذاتيين التعلم

إنشاء وكلاء مستقلين يتحسنون في أداء اللعبة من خلال الخبرة باستخدام خوارزميات Q-Learning أو Decision Transformer.

تجربة خوارزميات RL

اختبار ومقارنة أساليب تعلم معزز مختلفة بما في ذلك Actor-Critic و SARSA لأغراض البحث الأكاديمي.

تحسين اتخاذ القرار للوكيل

تدريب الوكلاء لتحسين اتخاذ القرار في بيئات معقدة مع مساحات إجراءات مستمرة أو منفصلة لأنظمة الإنتاج.

试试这些提示

إنشاء وكيل Q-Learning أساسي
Use AgentDB Learning Plugins to create a Q-Learning agent plugin for a simple grid navigation task. Show me the configuration parameters and explain how to store training experiences.
التدريب دون اتصال باستخدام البيانات المسجلة
Help me implement a Decision Transformer plugin using AgentDB to train an agent from historical experience data without requiring environment interaction. Include code for loading logged experiences.
تنفيذ تجربة إعادة التشغيل
Show me how to implement experience replay buffers with AgentDB Learning Plugins. Include both standard replay and prioritized experience replay for better sample efficiency and training stability.
بناء نظام متعدد الوكلاء
Create a multi-agent training system using AgentDB where multiple agents share learned experiences through a common replay buffer and train a collaborative policy together.

最佳实践

  • ابدأ بـ Decision Transformer للتعلم دون اتصال من البيانات المسجلة قبل محاولة الأساليب عبر الإنترنت التي تتطلب تفاعل البيئة
  • استخدم انقسامات التحقق من الصحة أثناء التدريب لاكتشاف فرط التخصيص مبكراً وضبط المعاملات الفائقة وفقاً لذلك
  • نفّذ مخازن تجربة إعادة التشغيل لتحسين كفاءة العينات واستقرار التدريب عبر جميع الخوارزميات القائمة على القيمة

避免

  • التدريب بدون بيانات التحقق من الصحة يؤدي إلى فرط التخصيص يظل غير مكتشف حتى يتم نشر الوكيل في بيئات الإنتاج
  • استخدام معدلات تعلم مرتفعة بشكل مفرط يسبب عدم استقرار التدريب والتباعد والفشل في التقارب إلى السياسات المثلى
  • تجاهل مفاضلة الاستكشاف والاستغلال باستخدام قيم إبسيلون ثابتة ينتج عنه سياسات مكتسبة دون المستوى الأمثل

常见问题

أي خوارزمية يجب أن يبدأ بها المبتدئون؟
يُنصح بـ Decision Transformer للمبتدئين لأنه يتدريب بشكل مستقر من البيانات المسجلة دون الحاجة إلى تفاعل مع البيئة عبر الإنترنت أو استكشاف معقد.
ما المتطلبات النظامية الدنيا؟
يتطلب Node.js الإصدار 18 أو أعلى و AgentDB الإصدار 1.0.7 أو أعلى. يستفيد أداء التدريب من ذاكرة RAM إضافية ومعالجات متعددة.
كيف يمكنني دمج هذا مع Claude Code؟
استورد createAgentDBAdapter من حزمة agentic-flow/reasoningbank وقم بتهيئته مع enableLearning设置为 true للدمج الكامل مع Claude Code.
هل يتم تخزين بيانات التدريب بشكل آمن؟
يخزن AgentDB جميع البيانات محلياً في مسار قاعدة البيانات الذي تحدده. لا يتم إرسال بيانات التدريب أو التجارب إلى خوادم خارجية بشكل افتراضي.
لماذا لا يتقارب نموذي في التدريب؟
حاول تقليل معدل التعلم، وزيادة حقب التدريب، والتحقق من أن التجارب لها قيم حالة ومكافأة منسقة بشكل صحيح، أو استخدام حجم دفعة أصغر.
كيف يختلف هذا عن OpenAI RLHF؟
يركز AgentDB على التعلم المعزز من تفاعلات البيئة بدلاً من التغذية الراجعة البشرية. استخدم Decision Transformer للتعلم بالتقليد من العروض التوضيحية.

开发者详情

文件结构

📄 SKILL.md