vector-index-tuning
Оптимизация настройки векторного индекса для скорости и полноты поиска
Векторный поиск кажется медленным или затратным при неправильной настройке индексов. Этот навык предоставляет шаблоны и эвристики для улучшения задержки, полноты поиска и использования памяти для стратегий HNSW и квантизации.
Télécharger le ZIP du skill
Importer dans Claude
Allez dans Paramètres → Capacités → Skills → Importer un skill
Activez et commencez à utiliser
Tester
Utilisation de "vector-index-tuning". Suggest HNSW parameters for 1M vectors with 0.95 recall and under 10 ms latency.
Résultat attendu:
- Рекомендуемый M: 32 и efConstruction: 200 для качества построения
- Установить efSearch в 128 для достижения полноты поиска 0.95
- Оценить накладные расходы памяти при M = 32 и проверить с помощью небольшого теста
Utilisation de "vector-index-tuning". What memory savings can I get by switching from FP32 to INT8 quantization?
Résultat attendu:
- FP32 использует 4 байта на измерение, INT8 использует 1 байт
- Для векторов размерности 768: FP32 = 3КБ, INT8 = 768 байт на вектор
- Приблизительно 75% экономия памяти с незначительным влиянием на полноту поиска
Utilisation de "vector-index-tuning". How do I choose between IVF and HNSW for 50M vectors?
Résultat attendu:
- HNSW: лучшая полнота поиска за счет памяти и времени построения
- IVF: меньше памяти, быстрее построение, немного ниже полнота поиска
- Рассмотреть гибрид: IVF-PQ для 50M+ векторов при ограничениях памяти
Audit de sécurité
SûrPure documentation skill with instructional Python templates for vector index tuning. All static findings are false positives: hardcoded URLs are documentation references, weak crypto patterns matched legitimate quantization terminology, backticks are markdown formatting, and memory-mapped references are Qdrant config parameters.
Facteurs de risque
🌐 Accès réseau (1)
Score de qualité
Ce que vous pouvez construire
Настройка ANN для полноты поиска
Найти настройки HNSW, которые соответствуют целям полноты поиска, не превышая бюджетов задержки.
Снижение объема памяти
Оценить варианты квантизации и оценить компромиссы хранения при масштабировании.
Планирование масштабирования индекса
Выбрать типы индексов и конфигурации для миллионов и миллиардов векторов.
Essayez ces prompts
Benchmark HNSW M и efSearch для 200k векторов с целевой полнотой 0.95. Предложить лучшую сбалансированную конфигурацию.
Сравнить fp16, int8 и продуктовую квантизацию для 10M векторов размерности 768. Обобщить влияние на память и полноту поиска.
Создать настройки коллекции Qdrant для сбалансированной полноты поиска и скорости с 5M векторами. Включить конфигурации HNSW и квантизации.
Определить метрики и цикл тестирования для отслеживания дрейфа процентилей задержки и полноты поиска при еженедельных обновлениях индекса.
Bonnes pratiques
- Тестировать с реальными запросами и эталонным набором данных для точного измерения полноты поиска
- Начинать с параметров по умолчанию, затем систематически настраивать одну переменную за раз
- Отслеживать процентили задержки и полноту поиска после каждого изменения конфигурации
Éviter
- Настройка без измерения полноты поиска относительно известного эталонного набора данных
- Изменение нескольких параметров одновременно без контролируемых экспериментов
- Игнорирование накладных расходов памяти при увеличении значений M или efSearch
Foire aux questions
Какие платформы подде��живает этот навык?
Каковы основные ограничения шаблонов?
Могу ли я интегрировать это в свой пайплайн?
Он получает доступ к моим данным или отправляет их?
Что делать, если результаты тестов шумные?
Чем это отличается от общих руководств по настройке?
Détails du développeur
Auteur
wshobsonLicence
MIT
Dépôt
https://github.com/wshobson/agents/tree/main/plugins/llm-application-dev/skills/vector-index-tuningRéf
main
Structure de fichiers
📄 SKILL.md