agent-tools
透過 inference.sh CLI 執行 150+ 個 AI 模型
也可从以下获取: inference-sh-7,inference-sh-8,inference-sh-0,inference-sh-3,inference-sh-6,inferencesh,inf-sh
開發者需要 GPU 基礎設施和多個 API 整合才能使用 AI 模型。此 skill 提供統一的 CLI 存取功能,可訪問 150+ 個雲端託管的 AI 服務,包括圖像生成、影片建立、LLM 和搜尋工具。
下载技能 ZIP
在 Claude 中上传
前往 设置 → 功能 → 技能 → 上传技能
开启并开始使用
测试它
正在使用“agent-tools”。 infsh app run falai/flux-dev-lora --input '{"prompt": "a cat astronaut"}'
预期结果:
任務成功完成。返回包含圖像 URL 的 JSON,指向託管在 cloud.inference.sh 上的已生成 PNG 檔案
正在使用“agent-tools”。 infsh app run tavily/search-assistant --input '{"query": "latest AI news"}'
预期结果:
返回結構化的搜尋結果,包括文章標題、URL、摘要和來自網頁搜尋的相關性分數
正在使用“agent-tools”。 infsh task get abc123def456 --json
预期结果:
返回任務狀態物件,包含欄位:id、status (pending/running/completed/failed)、created_at、completed_at 和結果資料
安全审计
安全This is a documentation-only skill containing markdown files that explain how to use the inference.sh CLI platform. All 194 static analyzer findings are false positives: the 'external_commands' detections are markdown code blocks showing example shell commands (not actual code execution), 'network' findings are documentation URLs pointing to the official inference.sh platform, 'env_access' findings document how users should configure API keys, and 'filesystem' findings show installation paths in documentation. The skill contains no executable code, no embedded scripts, and no actual network or filesystem operations.
质量评分
你能构建什么
整合 AI 功能的開發者
為應用程式新增圖像生成、影片建立或 LLM 功能,無需管理 GPU 基礎設施或多個 API 金鑰。使用 CLI 命令測試模型並透過 inference.sh API 進行整合。
使用生成式 AI 的內容創作者
透過簡單的 CLI 命令使用各種 AI 模型生成圖像、影片、音訊和 3D 模型。比較 FLUX、Veo 和 Gemini 等不同模型的輸出。
自動化工程師
使用搜尋工具(Tavily、Exa)、Twitter/X 發文和批次 AI 處理自動化工作流程。將多個 AI 服務串連在一起以執行複雜的自動化任務。
试试这些提示
使用 inference.sh CLI 生成圖像。執行:infsh app run falai/flux-dev-lora --input '{"prompt": "a cat astronaut floating in space"}'使用 Veo 生成影片。首先用 'infsh app sample google/veo-3-1-fast --save input.json' 建立範例輸入,編輯 prompt 欄位,然後執行 'infsh app run google/veo-3-1-fast --input input.json'
透過 OpenRouter 呼叫 Claude 或其他 LLM。執行:infsh app run openrouter/claude-sonnet-45 --input '{"prompt": "Explain quantum computing"}'對於長時間執行的任務,使用非同步模式:'infsh app run google/veo-3 --input input.json --no-wait',然後使用 'infsh task get <task-id>' 檢查狀態並在完成時檢索結果
最佳实践
- 使用 'infsh app sample <app> --save input.json' 生成範例輸入檔案,以在執行前了解所需的輸入 schema
- 對於長時間執行的任務(如影片生成)使用非同步模式(--no-wait 旗標),然後分別輪詢任務狀態
- 使用 'infsh login' 儲存 API 憑證以進行互動式使用,或使用 INFSH_API_KEY 環境變數用於 CI/CD 管線
避免
- 不要在腳本中硬編碼 API 金鑰或將憑證提交至版本控制
- 避免在不受信任的環境中執行 CLI,因為它需要 API 金鑰存取
- 不要對幾秒內完成的快速任務使用 --no-wait - 會增加不必要的複雜性
常见问题
什麼是 inference.sh 以及它如何運作?
透過此 skill 可以使用哪些 AI 模型?
如何透過 inference.sh CLI 進行身份驗證?
我可以使用此 skill 在本機上執行 AI 模型嗎?
如何處理長時間執行的任務?
我可以透過 inference.sh 使用自訂 AI 模型嗎?
开发者详情
许可证
MIT
引用
main
文件结构