Compétences transformers
📦

transformers

Sûr

Domine Hugging Face Transformers para Desenvolvimento de IA

Également disponible depuis: K-Dense-AI

Trabalhar com modelos transformer requer compreensão de pipelines, tokenização e fluxos de trabalho de fine-tuning. Esta skill fornece orientação abrangente para usar a biblioteca Hugging Face Transformers em tarefas de NLP, visão computacional e áudio com boas práticas e exemplos de código.

Prend en charge: Claude Codex Code(CC)
📊 71 Adéquat
1

Télécharger le ZIP du skill

2

Importer dans Claude

Allez dans Paramètres → Capacités → Skills → Importer un skill

3

Activez et commencez à utiliser

Tester

Utilisation de "transformers". Mostre-me como carregar um modelo pré-treinado para análise de sentimento

Résultat attendu:

Posso ajudá-lo a carregar um modelo de análise de sentimento. Aqui está o código usando a API de pipeline:

from transformers import pipeline

classifier = pipeline("sentiment-analysis")
result = classifier("I love this product!")

Isso produzirá: [{'label': 'POSITIVE', 'score': 0.9998}]

O pipeline baixa e armazena em cache automaticamente o modelo padrão (distilbert-base-uncased-finetuned-sst-2-english) e lida com a tokenização para você.

Utilisation de "transformers". Ajude-me a fazer fine-tuning de um modelo no meu conjunto de dados personalizado

Résultat attendu:

Vou orientá-lo através do processo de fine-tuning:

1. Primeiro, prepare seu conjunto de dados usando a biblioteca datasets
2. Carregue o modelo pré-treinado e o tokenizer
3. Crie um data collator para agrupamento em lotes
4. Configure TrainingArguments com taxa de aprendizado, tamanho de lote e épocas
5. Inicialize o Trainer com seu modelo, conjuntos de dados e argumentos
6. Chame trainer.train() para iniciar o fine-tuning

Deixe-me mostrar o código completo com a estrutura do seu conjunto de dados.

Audit de sécurité

Sûr
v6 • 1/21/2026

This skill contains only documentation and reference materials for the Hugging Face Transformers library. All static findings are false positives: backtick detections are markdown code blocks in documentation, eval references are PyTorch model.eval() method calls, and network references are documentation URLs. No executable code, command execution, or security risks present.

7
Fichiers analysés
6,485
Lignes analysées
0
résultats
6
Total des audits
Aucun problème de sécurité trouvé

Score de qualité

45
Architecture
100
Maintenabilité
87
Contenu
20
Communauté
100
Sécurité
91
Conformité aux spécifications

Ce que vous pouvez construire

Classificação de Texto com Modelos Pré-treinados

Use a API de pipeline para classificar texto para análise de sentimento, detecção de spam ou categorização de tópicos sem escrever código de pré-processamento personalizado.

Fine-tuning de Modelos de Linguagem para Tarefas de Domínio

Adapte modelos pré-treinados para domínios especializados como texto médico ou jurídico fazendo fine-tuning em conjuntos de dados personalizados usando a API Trainer.

Construir IA Conversacional com Geração de Texto

Gere respostas de texto semelhantes às humanas usando modelos estilo GPT com controle sobre temperatura, parâmetros de amostragem top-k e top-p.

Essayez ces prompts

Carregar um Modelo Pré-treinado para Inferência
Mostre-me como carregar o modelo BERT base para classificação de texto e executar inferência em uma frase de exemplo
Gerar Texto com Parâmetros Personalizados
Ajude-me a gerar texto criativo usando GPT-2 com temperatura 0.8 e amostragem top-p de 0.9
Fine-tuning de Modelo em Conjunto de Dados Personalizado
Oriente-me no fine-tuning do DistilBERT no meu conjunto de dados CSV com rótulos de sentimento usando a API Trainer
Otimizar Modelo para Implantação em Produção
Mostre-me como quantizar e otimizar um modelo transformer para inferência mais rápida com uso reduzido de memória

Bonnes pratiques

  • Use classes AutoModel em vez de arquiteturas de modelo específicas para melhor compatibilidade
  • Habilite device_map auto para gerenciamento automático de memória GPU com modelos grandes
  • Armazene em cache modelos baixados localmente para evitar downloads repetidos durante o desenvolvimento

Éviter

  • Carregar modelos sem especificar torch_dtype pode causar problemas de memória com modelos grandes
  • Esquecer de chamar tokenizer com o parâmetro return_tensors leva a erros de tipo
  • Usar a API de pipeline para processamento em lote sem o parâmetro batching é ineficiente

Foire aux questions

Como faço para autenticar e acessar modelos restritos no Hugging Face Hub?
Use a função huggingface_hub.login() e insira seu token de acesso quando solicitado. Você pode obter tokens em https://huggingface.co/settings/tokens. Alternativamente, defina a variável de ambiente HUGGINGFACE_TOKEN.
Qual é a diferença entre AutoModel e AutoModelForCausalLM?
AutoModel carrega o modelo base sem uma cabeça específica de tarefa, enquanto AutoModelForCausalLM adiciona uma cabeça de modelagem de linguagem para geração de texto. Use AutoModel para extração de features e AutoModelForCausalLM para tarefas de geração estilo GPT.
Como posso reduzir o uso de memória ao carregar modelos grandes?
Use device_map auto para distribuição automática de camadas entre dispositivos, defina torch_dtype para torch.float16 ou torch.bfloat16 para precisão reduzida, ou use opções de quantização load_in_8bit e load_in_4bit.
Por que meu modelo fornece saídas diferentes cada vez que executo a geração?
A geração de texto usa amostragem por padrão, o que introduz aleatoriedade. Defina do_sample para False para decodificação greedy, ou use uma semente aleatória fixa com torch.manual_seed para resultados de amostragem reproduzíveis.
Qual é a melhor maneira de processar lotes de texto para inferência?
Use a API de pipeline com o parâmetro batch_size para agrupamento automático em lotes. Para processamento manual, tokenize todas as entradas juntas com padding habilitado e passe o lote para o modelo em uma única passagem forward.
Como escolho o modelo certo para minha tarefa?
Verifique o hub de modelos do Hugging Face e filtre por tipo de tarefa. Para velocidade, use modelos destilados como DistilBERT. Para precisão, use modelos base maiores como BERT-large. Para domínios específicos, procure modelos com fine-tuning específico de domínio.

Détails du développeur

Structure de fichiers