Habilidades similarity-search-patterns
🔍

similarity-search-patterns

Seguro

Implementa búsqueda de similitud en producción con bases de datos vectoriales

También disponible en: wshobson

La búsqueda de similitud vectorial es esencial para sistemas de búsqueda semántica y RAG, pero requiere selección cuidadosa de índices y ajuste. Esta habilidad proporciona patrones listos para usar con Pinecone, Qdrant, pgvector y Weaviate, incluyendo búsqueda híbrida y reranking.

Soporta: Claude Codex Code(CC)
📊 71 Adecuado
1

Descargar el ZIP de la skill

2

Subir en Claude

Ve a Configuración → Capacidades → Skills → Subir skill

3

Activa y empieza a usar

Pruébalo

Usando "similarity-search-patterns". Configurar Qdrant para 1 millón de embeddings de productos con objetivo de 95% de recall

Resultado esperado:

  • Colección creada con índice HNSW (m=16, ef_construct=64)
  • Cuantización escalar habilitada (INT8) reduciendo memoria 4x
  • Parámetros de búsqueda recomendados: ef=128 para 95% de recall a ~50ms P99

Usando "similarity-search-patterns". Búsqueda híbrida para documentos sobre 'optimización de machine learning'

Resultado esperado:

  • Búsqueda vectorial recupera 20 documentos semánticamente similares
  • BM25 filtra coincidencias exactas de términos en 'optimization'
  • Resultados rerankeados combinan ambas señales con ponderación 0.6/0.4

Auditoría de seguridad

Seguro
v1 • 2/25/2026

All 31 static analysis findings are false positives. The scanner incorrectly flagged Markdown documentation syntax as executable code. Backticks are code fence markers, URLs are documentation links, and API key parameters represent secure credential handling. The skill contains Python code examples for vector database implementations with no security concerns.

2
Archivos escaneados
594
Líneas analizadas
0
hallazgos
1
Auditorías totales
No se encontraron problemas de seguridad
Auditado por: claude

Puntuación de calidad

38
Arquitectura
100
Mantenibilidad
87
Contenido
22
Comunidad
100
Seguridad
100
Cumplimiento de la especificación

Lo que puedes crear

Desarrollador de Aplicaciones RAG

Implementa generación aumentada por recuperación con búsqueda vectorial eficiente sobre embeddings de documentos. Soporta búsqueda híbrida combinando coincidencia semántica y por palabras clave para recuperación precisa de contexto.

Desarrollador de Motor de Recomendaciones

Construye sistemas de recomendación de vecinos más cercanos usando embeddings vectoriales. Aprovecha la indexación HNSW para consultas en menos de un segundo sobre millones de elementos con umbrales de recall configurables.

Ingeniero de Plataforma de Búsqueda

Despliega infraestructura de búsqueda de similitud en producción con pgvector de PostgreSQL o servicios gestionados. Implementa pipelines de pre-filtrado y reranking para calidad de búsqueda empresarial.

Prueba estos prompts

Configuración Básica de Almacén Vectorial
Necesito almacenar y buscar embeddings de documentos. Ayúdame a configurar un índice vectorial en Pinecone con similitud de coseno para embeddings de 1536 dimensiones. Incluye funciones de upsert y búsqueda con filtrado por metadatos.
Implementación de Búsqueda Híbrida
Crea una función de búsqueda híbrida que combine similitud vectorial con coincidencia de palabras clave usando pgvector. Pondera la búsqueda vectorial en 0.7 y la búsqueda de texto completo en 0.3. Incluye el esquema SQL con índice HNSW.
Pipeline de Reranking
Tengo 50 resultados de búsqueda vectorial pero necesito mejor ranking. Muéstrame cómo hacer reranking con un modelo cross-encoder. Incluye el código de sentence-transformers y explica la compensación entre latencia y precisión.
Selección y Ajuste de Índice
Tengo 10 millones de vectores y necesito latencia P99 menor a 100ms con 95% de recall. Recomienda un tipo de índice y parámetros para Qdrant. Explica las configuraciones de ef_construct, nprobe y cuantización para mi caso de uso.

Mejores prácticas

  • Comienza con índice flat para conjuntos de datos pequeños (menos de 100K vectores) y migra a HNSW a medida que crecen los datos
  • Siempre mide el recall en tu latencia objetivo antes de desplegar índices aproximados
  • Usa pre-filtrado por metadatos para reducir el espacio de búsqueda antes de la comparación vectorial

Evitar

  • Usar índices de vecinos más cercanos aproximados sin medir la degradación del recall
  • Almacenar vectores sin cuantización cuando la memoria es limitada
  • Consultar sin pre-filtros causando escaneos completos del índice en colecciones grandes

Preguntas frecuentes

¿Qué base de datos vectorial debería elegir para mi proyecto?
Para prototipos rápidos, usa Pinecone (gestionada, sin infraestructura). Para entornos PostgreSQL, pgvector añade mínima complejidad. Para necesidades de alto rendimiento, Qdrant o Weaviate ofrecen características avanzadas. Considera el tamaño de datos, requisitos de latencia de consulta e infraestructura existente.
¿Cuál es la diferencia entre similitud de coseno y producto punto?
La similitud de coseno mide solo el ángulo (ignora la magnitud), haciéndola ideal para embeddings normalizados. El producto punto incluye efectos de magnitud. Para la mayoría de modelos de embeddings (OpenAI, Sentence Transformers), la similitud de coseno es la opción estándar.
¿Cómo mejoro el recall de búsqueda sin sacrificar latencia?
Aumenta gradualmente los parámetros del índice (ef_search para HNSW, nprobe para IVF) mientras mides la latencia P99. Usa reranking para recuperar precisión después de recuperación de alto recall. Considera recuperación en dos etapas: búsqueda aproximada rápida seguida de reranking exacto en los resultados top-K.
¿Puedo actualizar vectores después de la inserción?
Sí, todas las bases de datos vectoriales soportadas soportan operaciones upsert. Re-insertar un vector con el mismo ID lo actualiza in situ. Ten en cuenta que las actualizaciones frecuentes pueden requerir reconstrucción del índice para rendimiento óptimo.
¿Qué dimensión de embeddings debería usar?
Usa la dimensión nativa de tu modelo de embeddings (ej. 1536 para text-embedding-ada-002, 384 para all-MiniLM-L6-v2). Dimensiones más altas capturan más matices pero aumentan almacenamiento y cómputo. Alinea la métrica de tu índice con el objetivo de entrenamiento del modelo de embeddings.
¿Cómo manejo búsqueda multilingüe?
Usa modelos de embeddings multilingües como multilingual-e5 o LaBSE que mapean diferentes idiomas al mismo espacio vectorial. Consultas y documentos en diferentes idiomas aún recuperarán resultados relevantes si el modelo de embeddings los soporta.

Detalles del desarrollador

Estructura de archivos