hugging-face-cli
从终端管理 Hugging Face Hub
在 Hugging Face Hub 上使用 AI 模型和数据集需要多种工具和手动步骤。此技能通过提供统一的 CLI 命令来直接下载、上传和管理 ML 资源,从而简化工作流程。
下载技能 ZIP
在 Claude 中上传
前往 设置 → 功能 → 技能 → 上传技能
开启并开始使用
测试它
正在使用“hugging-face-cli”。 下载模型到本地目录
预期结果:
模型 meta-llama/Llama-3.2-1B-Instruct 已成功下载到 ./models 目录。总大小:2.1 GB,共 15 个文件。
正在使用“hugging-face-cli”。 列出缓存的仓库
预期结果:
缓存的仓库:gpt2 (1.2 GB), bert-base-uncased (440 MB), t5-base (890 MB)。总缓存使用量:2.53 GB。
安全审计
安全Static analysis detected 76 patterns in documentation content, but all are false positives. The skill file is markdown documentation showing usage examples for the official Hugging Face hf CLI tool, not executable code. No actual security risks exist - external command patterns are CLI documentation examples, network references are URLs in documentation, and cryptographic warnings do not match any actual crypto implementations.
风险因素
⚙️ 外部命令 (3)
🌐 网络访问 (1)
质量评分
你能构建什么
ML 工程师模型部署
从 Hugging Face Hub 下载预训练模型用于本地部署和推理服务。
研究员数据集管理
将实验数据集上传到私有仓库,并通过版本化发布与协作者共享。
开发者缓存优化
管理本地模型缓存以优化存储并快速访问开发中常用的模型。
试试这些提示
将模型 meta-llama/Llama-3.2-1B-Instruct 下载到我的本地模型目录。
将我的训练模型从 ./output 文件夹上传到我的 Hugging Face 仓库,提交消息为 'Initial model release'。
查找与文本分类相关的数据集,显示高下载量的数据集及其详细信息。
检查我当前的缓存使用情况,删除未使用的模型,然后使用指定的镜像和命令运行 GPU 任务来处理我的数据集。
最佳实践
- 当只需要下载路径用于脚本编写时,始终使用 --quiet 标志
- 在上传专有内容之前,为敏感模型和数据集创建私有仓库
- 上传模型更新时使用清晰描述变更的提交消息
- 定期清理分离的缓存版本以释放磁盘空间
避免
- 不要将包含 API 密钥、凭证或敏感配置数据的文件上传到公共仓库
- 在下载整个大型模型之前先检查可用磁盘空间
- 不要在命令历史或提交消息中分享你的 HF_TOKEN
- 运行计算任务前使用 --flavor 选项估算成本