ai-rag-pipeline
Construir pipelines RAG con búsqueda web y LLMs
También disponible en: inference-sh
Los agentes de IA e investigadores a menudo producen respuestas sin información actual o fuentes. Esta habilidad permite construir pipelines RAG que combinan búsqueda web en tiempo real con LLMs para generar respuestas precisas, fundamentadas y verificables.
Descargar el ZIP de la skill
Subir en Claude
Ve a Configuración → Capacidades → Skills → Subir skill
Activa y empieza a usar
Pruébalo
Usando "ai-rag-pipeline". Investiga los últimos desarrollos en computación cuántica
Resultado esperado:
- Basado en búsquedas recientes, estos son los desarrollos clave en computación cuántica:
- 1. **Avances en Corrección de Errores** - Investigadores de Google e IBM han demostrado avances significativos en corrección cuántica de errores...
- Fuentes: [Nature](https://nature.com/quantum), [IBM Research](https://research.ibm.com)
Usando "ai-rag-pipeline". Verificación de hechos: La IA reemplazará el 50% de los trabajos para 2030
Resultado esperado:
- VEREDICTO: Parcialmente verdadero / No verificado
- EVIDENCIA DE APOYO:
- - El informe de McKinsey sugiere que el 30% de las tareas actuales podrían automatizarse...
- EVIDENCIA CONTRADICTORIA:
- - El Foro Económico Mundial proyecta que la IA creará 97 millones de nuevos empleos...
- CONCLUSIÓN: La afirmación es exagerada. La IA transformará el trabajo en lugar de simplemente reemplazar empleos.
Auditoría de seguridad
SeguroAll static findings are false positives. The skill uses standard bash command substitution syntax to invoke the legitimate inference.sh CLI tool for web search and LLM queries. Network requests go to authorized services (inference.sh, Tavily, Exa, OpenRouter). The pipe-to-shell pattern at line 16 is a standard CLI installation method documented to only download and verify binaries.
Problemas de riesgo alto (1)
Problemas de riesgo medio (1)
Problemas de riesgo bajo (1)
Puntuación de calidad
Lo que puedes crear
Asistente de Investigación
Automatiza la investigación buscando múltiples fuentes, agregando hallazgos y generando informes completos con citas.
Herramienta de Verificación de Hechos
Verifica afirmaciones buscando evidencia que apoye y contradiga, luego genera veredictos equilibrados con fuentes.
Conocimiento para Agentes de IA
Da a los agentes de IA la capacidad de obtener información actual y citar fuentes, haciendo sus respuestas verificables.
Prueba estos prompts
Busca información sobre [TOPIC] usando búsqueda tavily, luego proporciona un resumen con fuentes.
Ejecuta búsquedas sobre [TOPIC] usando tavily y exa search. Compara los resultados e identifica temas comunes.
Extrae contenido de estas URLs: [URLS]. Luego analiza y resume los hallazgos clave.
Busca evidencia sobre esta afirmación: [CLAIM]. Proporciona un veredicto con fuentes que apoyen y contradigan.
Mejores prácticas
- Usa consultas específicas y contextuales en lugar de términos vagos para mejorar la relevancia de la búsqueda
- Resume los resultados de búsqueda largos antes de pasarlos a los LLMs para gestionar la longitud del contexto
- Siempre solicita citas de fuentes en las respuestas de los LLM para verificabilidad
Evitar
- Usar consultas demasiado amplias como 'noticias de IA' en lugar de temas específicos
- Pasar resultados de búsqueda sin procesar directamente a los LLMs sin resumir para salidas largas
- Omitir la atribución de fuentes - siempre verifica que las respuestas de IA citen sus fuentes
Preguntas frecuentes
¿Qué claves API necesito para esta habilidad?
¿Puedo usar mi propia clave API de OpenAI o Anthropic?
¿Cómo se compara con Perplexity?
¿Puedo buscar documentos internos?
¿El tráfico de búsqueda es ilimitado?
¿Puedo personalizar qué LLM se usa?
Detalles del desarrollador
Estructura de archivos
📄 SKILL.md