hugging-face-cli
Управление Hugging Face Hub из терминала
Работа с моделями ИИ и наборами данных на Hugging Face Hub требует использования множества инструментов и ручных действий. Этот навык оптимизирует рабочий процесс, обеспечивая прямой доступ через CLI для загрузки, выгрузки и управления ресурсами машинного обучения с помощью унифицированных команд.
下载技能 ZIP
在 Claude 中上传
前往 设置 → 功能 → 技能 → 上传技能
开启并开始使用
测试它
正在使用“hugging-face-cli”。 Download a model to local directory
预期结果:
Model meta-llama/Llama-3.2-1B-Instruct downloaded successfully to ./models directory. Total size: 2.1 GB across 15 files.
正在使用“hugging-face-cli”。 List cached repositories
预期结果:
Cached repositories: gpt2 (1.2 GB), bert-base-uncased (440 MB), t5-base (890 MB). Total cache usage: 2.53 GB.
安全审计
安全Static analysis detected 76 patterns in documentation content, but all are false positives. The skill file is markdown documentation showing usage examples for the official Hugging Face hf CLI tool, not executable code. No actual security risks exist - external command patterns are CLI documentation examples, network references are URLs in documentation, and cryptographic warnings do not match any actual crypto implementations.
风险因素
⚙️ 外部命令 (3)
🌐 网络访问 (1)
质量评分
你能构建什么
Развертывание моделей ML-инженером
Загрузка предварительно обученных моделей из Hugging Face Hub для локального развертывания и обслуживания вывода.
Управление наборами данных исследователя
Загрузка экспериментальных наборов данных в частные репозитории и совместное использование с коллегами через версионные релизы.
Оптимизация кэша разработчика
Управление локальным кэшем моделей для оптимизации хранилища и быстрого доступа к часто используемым моделям для разработки.
试试这些提示
Download the model meta-llama/Llama-3.2-1B-Instruct to my local models directory.
Upload my trained model from the ./output folder to my Hugging Face repository with the commit message 'Initial model release'.
Find datasets related to text classification with high download counts and show me their details.
Check my current cache usage, remove unused models, then run a GPU job to process my dataset using the specified image and command.
最佳实践
- Always use the --quiet flag when you only need the download path for scripting purposes
- Create private repositories for sensitive models and datasets before uploading proprietary content
- Use commit messages that clearly describe changes when uploading model updates
- Regularly prune detached cache revisions to free up disk space
避免
- Do not upload files containing API keys, credentials, or sensitive configuration data to public repositories
- Avoid downloading entire large models without checking available disk space first
- Do not share your HF_TOKEN in command history or commit messages
- Avoid running compute jobs without estimating costs using the --flavor option