Modal 是一個用於在雲端執行 Python 程式碼的無伺服器平台。它提供即時存取 GPU、自動擴展,以及按使用量計費。部署 ML 模型、執行批次處理作業,以及提供 API,無需管理基礎設施。
下載技能 ZIP
在 Claude 中上傳
前往 設定 → 功能 → 技能 → 上傳技能
開啟並開始使用
測試它
正在使用「modal」。 部署一個使用 HuggingFace 模型在 GPU 上摘要文字的 Python 函數
預期結果:
- ✓ 已建立具有 L40S GPU 存取權限的 Modal 應用程式
- ✓ 已建置包含 transformers 和 torch 的容器映像
- ✓ 已部署文字摘要的 Web 端點
- ✓ 端點可在 https://your-app.modal.run 使用
正在使用「modal」。 執行批次作業以平行處理 1000 張圖片
預期結果:
- ✓ 已建立具有 4 個 CPU 核心和 8GB 記憶體的工作者函數
- ✓ 已設定跨 50 個容器的平行處理
- ✓ 已在大約 8 分鐘內處理 1000 張圖片
- ✓ 結果已儲存到 /data/output/ 的 Modal Volume
正在使用「modal」。 排程每天午夜重新訓練模型
預期結果:
- ✓ 已建立具有 cron 表達式 '0 0 * * *' 的排程函數
- ✓ 已設定用於訓練運算的 GPU(A100)
- ✓ 已設定 API 憑證的密鑰管理
- ✓ 訓練日誌可在 Modal 儀表板中查看
安全審計
安全This is a documentation-only skill for Modal, a legitimate serverless cloud computing platform. All 572 static findings are FALSE POSITIVES. The scanner misinterprets Markdown documentation code examples as executable code. Patterns flagged include CLI commands in documentation (modal run, modal deploy), environment variable documentation, and legitimate Modal API patterns. No malicious code, credential exfiltration, or actual security vulnerabilities exist. This skill contains only documentation files teaching users how to properly use the Modal platform.
風險因素
⚙️ 外部命令 (6)
📁 檔案系統存取 (3)
品質評分
你能建構什麼
部署 ML 模型以進行推論
部署訓練好的模型(LLM、影像分類器)到生產環境,並使用 GPU 加速和自動擴展來處理變動的流量。
執行批次處理作業
跨多個容器平行處理大型資料集。同時處理数千個檔案或資料列。
執行 GPU 運算任務
在 H100 或 A100 GPU 上執行運算密集型研究任務。排程訓練作業和長時間執行的運算。
試試這些提示
建立一個使用 L40S GPU 執行 Python 函數的 Modal 應用程式。該函數應載入 HuggingFace 模型並返回預測結果。使用包含 torch 和 transformers 的適當容器映像。
設定一個平行處理 CSV 檔案的 Modal 函數。該函數應從 S3 儲存桶讀取檔案、套用轉換,並儲存結果。使用具有多個核心的 CPU 平行處理。
建立一個每天凌晨 2 點執行的 Modal 排程函數。該函數應從 API 重新整理快取資料,並更新儲存在 Modal Volume 中的模型權重。
建構一個接受包含輸入資料之 POST 請求的 Modal Web 端點。該端點應使用已部署的模型執行推論並返回預測結果。包含適當的錯誤處理和驗證。
最佳實務
- 在映像定義中固定所有 Python 套件版本,以確保可重現的建置和部署
- 為不同環境(開發、預發布、生產)使用不同的 Modal Secrets,以防止憑證洩漏
- 設定適當的 min_containers 以減少對延遲敏感的端點的冷啟動延遲
避免
- 直接將 API 金鑰或憑證硬編碼在函數程式碼中,而非使用 Modal Secrets
- 在模組作用域匯入大型依賴項,而非在函數主體內,這會減慢容器啟動速度
- 對批次處理使用循序迴圈,而非使用 .map() 跨容器進行平行執行