المهارات hugging-face-cli
🤗

hugging-face-cli

آمن ⚙️ الأوامر الخارجية🌐 الوصول إلى الشبكة

Gérer Hugging Face Hub depuis le terminal

Le travail avec les modèles IA et les ensembles de données sur Hugging Face Hub nécessite plusieurs outils et étapes manuelles. Cette skill rationalise le flux de travail en fournissant un accès CLI direct pour télécharger, téléverser et gérer les ressources ML via des commandes unifiées.

يدعم: Claude Codex Code(CC)
🥉 74 برونزي
1

تنزيل ZIP المهارة

2

رفع في Claude

اذهب إلى Settings → Capabilities → Skills → Upload skill

3

فعّل وابدأ الاستخدام

اختبرها

استخدام "hugging-face-cli". Download a model to local directory

النتيجة المتوقعة:

Model meta-llama/Llama-3.2-1B-Instruct downloaded successfully to ./models directory. Total size: 2.1 GB across 15 files.

استخدام "hugging-face-cli". List cached repositories

النتيجة المتوقعة:

Cached repositories: gpt2 (1.2 GB), bert-base-uncased (440 MB), t5-base (890 MB). Total cache usage: 2.53 GB.

التدقيق الأمني

آمن
v1 • 2/25/2026

Static analysis detected 76 patterns in documentation content, but all are false positives. The skill file is markdown documentation showing usage examples for the official Hugging Face hf CLI tool, not executable code. No actual security risks exist - external command patterns are CLI documentation examples, network references are URLs in documentation, and cryptographic warnings do not match any actual crypto implementations.

1
الملفات التي تم فحصها
199
الأسطر التي تم تحليلها
2
النتائج
1
إجمالي عمليات التدقيق

عوامل الخطر

⚙️ الأوامر الخارجية (3)
🌐 الوصول إلى الشبكة (1)
تم تدقيقه بواسطة: claude

درجة الجودة

38
الهندسة المعمارية
100
قابلية الصيانة
87
المحتوى
50
المجتمع
100
الأمان
91
الامتثال للمواصفات

ماذا يمكنك بناءه

Déploiement de modèles pour ingénieurs ML

Téléchargez des modèles pré-entraînés depuis Hugging Face Hub pour le déploiement local et le service d'inférence.

Gestion des ensembles de données pour chercheurs

Téléversez des ensembles de données expérimentaux vers des dépôts privés et partagez-les avec des collaborateurs via des versions publiées.

Optimisation du cache pour développeurs

Gérez le cache local des modèles pour optimiser le stockage et accéder rapidement aux modèles fréquemment utilisés pour le développement.

جرّب هذه الموجهات

Télécharger un modèle
Download the model meta-llama/Llama-3.2-1B-Instruct to my local models directory.
Téléverser des fichiers vers Hub
Upload my trained model from the ./output folder to my Hugging Face repository with the commit message 'Initial model release'.
Rechercher des ensembles de données
Find datasets related to text classification with high download counts and show me their details.
Gérer le cache et exécuter une tâche de calcul
Check my current cache usage, remove unused models, then run a GPU job to process my dataset using the specified image and command.

أفضل الممارسات

  • Utilisez toujours le flag --quiet lorsque vous avez uniquement besoin du chemin de téléchargement à des fins de scripting
  • Créez des dépôts privés pour les modèles et ensembles de données sensibles avant de téléverser du contenu propriétaire
  • Utilisez des messages de commit qui décrivent clairement les modifications lors de la téléversement de mises à jour de modèles
  • Supprimez régulièrement les révisions de cache detachées pour libérer de l'espace disque

تجنب

  • Ne téléversez pas de fichiers contenant des clés API, des identifiants ou des données de configuration sensibles vers des dépôts publics
  • Évitez de télécharger des modèles entiers volumineux sans vérifier l'espace disque disponible au préalable
  • Ne partagez pas votre HF_TOKEN dans l'historique des commandes ou les messages de commit
  • Évitez d'exécuter des tâches de calcul sans estimer les coûts avec l'option --flavor

الأسئلة المتكررة

Comment m'authentifier avec Hugging Face Hub ?
Exécutez hf auth login pour une authentification interactive, ou utilisez hf auth login --token YOUR_TOKEN pour une connexion non-interactive avec un jeton d'accès personnel depuis les paramètres de votre compte Hugging Face.
Où sont stockés les modèles téléchargés ?
Les modèles sont stockés par défaut dans le répertoire de cache Hugging Face. Utilisez l'option --local-dir pour spécifier un emplacement de téléchargement personnalisé, ou exécutez hf cache ls pour voir les éléments en cache.
Puis-je téléverser vers le dépôt de quelqu'un d'autre ?
Vous pouvez uniquement téléverser vers les dépôts que vous possédez ou pour lesquels vous avez un accès en écriture. Pour contribuer à d'autres projets, utilisez le flag --create-pr pour soumettre une pull request à la place.
Comment gérer les fichiers de modèles volumineux ?
Utilisez le flag --include pour télécharger uniquement des types de fichiers spécifiques comme *.safetensors. Pour les téléversements, envisagez d'utiliser Git LFS que hf CLI gère automatiquement pour les fichiers volumineux.
Quelles options GPU sont disponibles pour les tâches de calcul ?
Les flavors disponibles vont de CPU-basic aux GPU H100. Utilisez --flavor avec des valeurs comme t4-small, l4x1, a10g-small ou a100-large selon vos besoins de calcul et votre budget.
Comment vérifier mon statut d'authentification ?
Exécutez hf auth whoami pour voir votre utilisateur actuellement connecté, ou hf auth list pour voir tous les jetons d'authentification stockés sur votre système.

تفاصيل المطور

المؤلف

sickn33

الترخيص

MIT

مرجع

main

بنية الملفات

📄 SKILL.md