embedding-strategies
Optimizar Embeddings para Búsqueda Semántica
También disponible en: wshobson
Esta skill ayuda a los desarrolladores a elegir e implementar los modelos de embedding correctos para búsqueda vectorial, proporcionando plantillas de código para OpenAI, Sentence Transformers y pipelines específicos de dominio.
Descargar el ZIP de la skill
Subir en Claude
Ve a Configuración → Capacidades → Skills → Subir skill
Activa y empieza a usar
Pruébalo
Usando "embedding-strategies". ¿Cómo elijo entre text-embedding-3-large y text-embedding-3-small?
Resultado esperado:
- text-embedding-3-large: 3072 dimensiones, 8191 tokens - Mejor para necesidades de alta precisión
- text-embedding-3-small: 1536 dimensiones, 8191 tokens - Opción rentable
- Elige large para tareas semánticas complejas, small para aplicaciones de alto volumen
Usando "embedding-strategies". ¿Cuál es la mejor estrategia de chunking para código?
Resultado esperado:
- Usa tree-sitter para analizar la estructura del código
- Divide en funciones, clases y métodos
- Incluye contexto circundante para mejor recuperación
- Considera separadores específicos del lenguaje
Auditoría de seguridad
SeguroThis skill provides educational content about embedding strategies for RAG applications. All static findings are false positives: code blocks are markdown documentation examples, URLs are legitimate documentation links, and no cryptographic algorithms or system reconnaissance behavior is present. Safe for publication.
Puntuación de calidad
Lo que puedes crear
Construir Aplicaciones RAG
Configura pipelines de embedding para generación aumentada de recuperación con chunking óptimo y selección de modelo
Comparar Modelos de Embedding
Evalúa diferentes modelos de embedding basados en dimensiones, costo y rendimiento para dominios específicos
Optimizar Búsqueda Vectorial
Mejora la calidad de búsqueda semántica a través de preprocesamiento adecuado, chunking y configuración de embedding
Prueba estos prompts
Muéstrame cómo comenzar con embeddings de OpenAI para una aplicación RAG. Incluye reducción de dimensiones y procesamiento por lotes.
¿Cómo configuro modelos de embedding locales usando sentence-transformers? Incluye modelos BGE y E5 con preprocesamiento adecuado.
¿Qué estrategia de chunking debo usar para documentación técnica? Incluye enfoques basados en tokens, oraciones y semánticos.
¿Cómo evalúo la calidad de mis embeddings para recuperación? Muestra métricas como precisión, recall, MRR y NDCG.
Mejores prácticas
- Haz coincidir el modelo de embedding con tu caso de uso específico (código, prosa, multilingüe)
- Normaliza los embeddings cuando uses similitud coseno para recuperación
- Guarda en caché los embeddings para evitar recalcular consultas repetidas
Evitar
- Usar el modelo incorrecto para tu dominio (ej. embeddings generales para código)
- Ignorar los límites de tokens que causa truncamiento y pérdida de información
- Mezclar modelos de embedding en producción que crea espacios vectoriales incompatibles
Preguntas frecuentes
¿Cuál es el mejor modelo de embedding para RAG?
¿Cómo manejo documentos largos?
¿Puedo usar embeddings sin conexión?
¿Cómo reduzco las dimensiones del embedding?
¿Qué métricas debo rastrear?
¿Cómo manejo contenido multilingüe?
Detalles del desarrollador
Autor
sickn33Licencia
MIT
Repositorio
https://github.com/sickn33/antigravity-awesome-skills/tree/main/skills/embedding-strategiesRef.
main
Estructura de archivos
📄 SKILL.md