when-optimizing-agent-learning-use-reasoningbank-intelligence
Implementar aprendizaje adaptativo de agentes con ReasoningBank
El rendimiento de los agentes se estanca sin aprender de la experiencia. ReasoningBank captura trayectorias de decisiones, extrae patrones y entrena modelos para mejorar continuamente las estrategias de los agentes a lo largo del tiempo.
下載技能 ZIP
在 Claude 中上傳
前往 設定 → 功能 → 技能 → 上傳技能
開啟並開始使用
測試它
正在使用「when-optimizing-agent-learning-use-reasoningbank-intelligence」。 Initialize ReasoningBank and capture 20 agent trajectories
預期結果:
- Sistema de aprendizaje inicializado con 20 trayectorias capturadas
- Extracción de patrones: 5 grupos identificados con umbral de similitud del 85 por ciento
- Patrón principal: secuencia de recuperación de errores con tasa de éxito del 92 por ciento
- Modelo de decisión entrenado: 100 épocas, tamaño de lote 32
- Mejora de rendimiento: 23 por ciento más rápido en completar tareas
- Guía de integración generada y modelo exportado
正在使用「when-optimizing-agent-learning-use-reasoningbank-intelligence」。 Train decision model on patterns and benchmark results
預期結果:
- Modelo Decision Transformer creado con tamaño oculto de 256
- Entrenamiento completado con pérdida de 0.002 después de 100 épocas
- Puntuación promedio del agente base: 72 por ciento
- Puntuación promedio del agente optimizado: 89 por ciento
- Mejora de rendimiento: 23.6 por ciento
- Modelo exportado a /tmp/reasoningbank-export.json
安全審計
安全Pure documentation skill containing markdown files only (SKILL.md, PROCESS.md, README.md). No executable code files exist (.js, .py files). All 88 static findings are false positives caused by the analyzer incorrectly flagging markdown code examples as actual command execution. The skill is instructional content for ML libraries with no network calls, no credential handling, and no file system operations beyond documentation examples.
風險因素
⚡ 包含腳本
🌐 網路存取
📁 檔案系統存取
⚙️ 外部命令
品質評分
你能建構什麼
Construir agentes auto-mejorables
Crear agentes que aprendan de la experiencia y optimicen su toma de decisiones a lo largo del tiempo
Experimentar con algoritmos de RL
Probar y comparar 9 algoritmos de aprendizaje por refuerzo para optimización de estrategias de agentes
Optimizar flujos de trabajo repetitivos
Identificar y aplicar automáticamente patrones de ejecuciones de tareas exitosas
試試這些提示
Initialize ReasoningBank with trajectory tracking, register schema, and configure verdict criteria for my agent
Capture agent decision trajectories and extract patterns using vector similarity with 0.85 threshold
Train a Decision Transformer model on extracted patterns and generate top 5 strategy recommendations
Benchmark baseline versus optimized agent performance and export the trained model for production deployment
最佳實務
- Recopilar trayectorias diversas incluyendo tanto intentos exitosos como fallidos para un aprendizaje equilibrado
- Validar patrones con al menos 80 por ciento de tasa de éxito antes de aplicar optimizaciones
- Monitorear el rendimiento en producción después del despliegue y reentrenar modelos regularmente
避免
- Aplicar optimizaciones sin validar primero las tasas de éxito de los patrones
- Entrenar con datos de trayectoria insuficientes con menos de 10 muestras
- Omitir la comparación de referencia entre agentes base y optimizados