Esta skill ajuda desenvolvedores a escolher e implementar os modelos de embedding corretos para busca vetorial, fornecendo templates de código para OpenAI, Sentence Transformers e pipelines específicos de domínio.
Baixar o ZIP da skill
Upload no Claude
Vá em Configurações → Capacidades → Skills → Upload skill
Ative e comece a usar
Testar
A utilizar "embedding-strategies". Como escolher entre text-embedding-3-large e text-embedding-3-small?
Resultado esperado:
- text-embedding-3-large: 3072 dimensões, 8191 tokens - Melhor para necessidades de alta acurácia
- text-embedding-3-small: 1536 dimensões, 8191 tokens - Opção econômica
- Escolha large para tarefas semânticas complexas, small para aplicações de alto volume
A utilizar "embedding-strategies". Qual é a melhor estratégia de chunking para código?
Resultado esperado:
- Use tree-sitter para analisar estrutura de código
- Faça chunk por funções, classes e métodos
- Inclua contexto circundante para melhor retrieval
- Considere separadores específicos da linguagem
Auditoria de Segurança
SeguroThis skill provides educational content about embedding strategies for RAG applications. All static findings are false positives: code blocks are markdown documentation examples, URLs are legitimate documentation links, and no cryptographic algorithms or system reconnaissance behavior is present. Safe for publication.
Pontuação de qualidade
O Que Você Pode Construir
Construir Aplicações RAG
Configurar pipelines de embedding para geração aumentada por retrieval com chunking ótimo e seleção de modelo
Comparar Modelos de Embedding
Avaliar diferentes modelos de embedding baseados em dimensões, custo e performance para domínios específicos
Otimizar Busca Vetorial
Melhorar qualidade de busca semântica através de pré-processamento adequado, chunking e configuração de embedding
Tente Estes Prompts
Mostre como começar com embeddings da OpenAI para uma aplicação RAG. Inclua batching e redução de dimensões.
Como configuro modelos de embedding locais usando sentence-transformers? Inclua modelos BGE e E5 com pré-processamento adequado.
Qual estratégia de chunking devo usar para documentação técnica? Inclua abordagens baseadas em tokens, sentenças e semântica.
Como avalio a qualidade dos meus embeddings para retrieval? Mostre métricas como precisão, recall, MRR e NDCG.
Melhores Práticas
- Combine o modelo de embedding com seu caso de uso específico (código, prosa, multilíngue)
- Normalize embeddings quando usar similaridade de cosseno para retrieval
- Faça cache de embeddings para evitar recálculo para queries repetidas
Evitar
- Usar o modelo errado para seu domínio (ex: embeddings gerais para código)
- Ignorar limites de tokens que causa truncamento e perda de informação
- Misturar modelos de embedding em produção que cria espaços vetoriais incompatíveis
Perguntas Frequentes
Qual é o melhor modelo de embedding para RAG?
Como lido com documentos longos?
Posso usar embeddings offline?
Como reduzo dimensões de embedding?
Quais métricas devo acompanhar?
Como lido com conteúdo multilíngue?
Detalhes do Desenvolvedor
Autor
sickn33Licença
MIT
Repositório
https://github.com/sickn33/antigravity-awesome-skills/tree/main/skills/embedding-strategiesReferência
main
Estrutura de arquivos
📄 SKILL.md