hugging-face-jobs
在 Hugging Face 云上执行 ML 工作负载
无需本地硬件设置即可运行 GPU/TPU 工作负载。将 Python 脚本提交到托管的 Hugging Face Jobs 基础设施,使用安全的令牌认证。
下载技能 ZIP
在 Claude 中上传
前往 设置 → 功能 → 技能 → 上传技能
开启并开始使用
测试它
正在使用“hugging-face-jobs”。 提交用于情感分析的 UV 脚本
预期结果:
作业提交成功。作业 ID:job_abc123。监控地址:https://huggingface.co/jobs/username/job_abc123。预计完成时间:5 分钟。
正在使用“hugging-face-jobs”。 检查运行中作业的状态
预期结果:
找到 2 个运行中的作业:job_abc123(RUNNING,45% 完成),job_def456(QUEUED)。使用 hf_jobs('logs', {'job_id': 'job_abc123'}) 查看日志。
安全审计
安全All 284 static analysis findings are false positives. The 'Ruby/shell backtick execution' detections are actually Python code examples in markdown documentation. 'Hardcoded URLs' are legitimate documentation links to Hugging Face resources. Environment variable access (HF_TOKEN) is documented authentication behavior for Hub operations. No malicious patterns detected.
质量评分
你能构建什么
运行批量推理的 ML 工程师
通过云 GPU 处理数千个样本,无需本地硬件投资。提交带有 vLLM 的 UV 脚本以实现高吞吐量生成。
转换数据集的数据科学家
使用 Polars 或 Pandas 在 Hugging Face 数据集上执行数据处理管道。安全地将转换结果推送到 Hub。
运行实验的研究人员
通过调度作业执行可重复的 ML 实验。通过作业 URL 监控进度并从 Hub 仓库检索结果。
试试这些提示
在 Hugging Face Jobs 上运行此 Python 脚本:[粘贴脚本]。使用 CPU 和 30 分钟超时。
在 A10G GPU 上执行此推理脚本。将结果推送到我的 Hub 仓库 username/results。包含 HF_TOKEN 认证。
创建一个调度作业,每天上午 9 点运行此数据转换脚本。使用 cpu-upgrade 硬件并将输出持久化到 Hub。
使用 pytorch/pytorch CUDA 镜像在 A100 GPU 上运行此命令。设置超时为 4 小时并监控完成情况。
最佳实践
- 始终使用 secrets={'HF_TOKEN': '$HF_TOKEN'} 进行 Hub 认证 - 切勿硬编码令牌
- 为您的工作负载类型设置适当的超时时间,预留 20-30% 的缓冲
- 在作业完成前将结果持久化到 Hub 或外部存储 - 环境是临时的
避免
- 在 hf_jobs() MCP 工具中使用本地文件路径 - 脚本必须是内联代码或 URL
- 反复轮询作业状态 - 等待用户请求状态检查
- 使用 env 而非 secrets 存储令牌 - 环境变量在日志中可见