技能 agent-tools
📦

agent-tools

安全

透過 inference.sh CLI 執行 150+ 個 AI 模型

也可从以下获取: inference-sh-7,inference-sh-8,inference-sh-0,inference-sh-3,inference-sh-6,inferencesh,inf-sh

開發者需要 GPU 基礎設施和多個 API 整合才能使用 AI 模型。此 skill 提供統一的 CLI 存取功能,可訪問 150+ 個雲端託管的 AI 服務,包括圖像生成、影片建立、LLM 和搜尋工具。

支持: Claude Codex Code(CC)
🥉 76 青铜
1

下载技能 ZIP

2

在 Claude 中上传

前往 设置 → 功能 → 技能 → 上传技能

3

开启并开始使用

测试它

正在使用“agent-tools”。 infsh app run falai/flux-dev-lora --input '{"prompt": "a cat astronaut"}'

预期结果:

任務成功完成。返回包含圖像 URL 的 JSON,指向託管在 cloud.inference.sh 上的已生成 PNG 檔案

正在使用“agent-tools”。 infsh app run tavily/search-assistant --input '{"query": "latest AI news"}'

预期结果:

返回結構化的搜尋結果,包括文章標題、URL、摘要和來自網頁搜尋的相關性分數

正在使用“agent-tools”。 infsh task get abc123def456 --json

预期结果:

返回任務狀態物件,包含欄位:id、status (pending/running/completed/failed)、created_at、completed_at 和結果資料

安全审计

安全
v1 • 2/26/2026

This is a documentation-only skill containing markdown files that explain how to use the inference.sh CLI platform. All 194 static analyzer findings are false positives: the 'external_commands' detections are markdown code blocks showing example shell commands (not actual code execution), 'network' findings are documentation URLs pointing to the official inference.sh platform, 'env_access' findings document how users should configure API keys, and 'filesystem' findings show installation paths in documentation. The skill contains no executable code, no embedded scripts, and no actual network or filesystem operations.

5
已扫描文件
554
分析行数
0
发现项
1
审计总数
未发现安全问题
审计者: claude

质量评分

45
架构
100
可维护性
87
内容
50
社区
100
安全
91
规范符合性

你能构建什么

整合 AI 功能的開發者

為應用程式新增圖像生成、影片建立或 LLM 功能,無需管理 GPU 基礎設施或多個 API 金鑰。使用 CLI 命令測試模型並透過 inference.sh API 進行整合。

使用生成式 AI 的內容創作者

透過簡單的 CLI 命令使用各種 AI 模型生成圖像、影片、音訊和 3D 模型。比較 FLUX、Veo 和 Gemini 等不同模型的輸出。

自動化工程師

使用搜尋工具(Tavily、Exa)、Twitter/X 發文和批次 AI 處理自動化工作流程。將多個 AI 服務串連在一起以執行複雜的自動化任務。

试试这些提示

基本圖像生成
使用 inference.sh CLI 生成圖像。執行:infsh app run falai/flux-dev-lora --input '{"prompt": "a cat astronaut floating in space"}'
使用範例輸入的影片生成
使用 Veo 生成影片。首先用 'infsh app sample google/veo-3-1-fast --save input.json' 建立範例輸入,編輯 prompt 欄位,然後執行 'infsh app run google/veo-3-1-fast --input input.json'
透過 OpenRouter 的 LLM 整合
透過 OpenRouter 呼叫 Claude 或其他 LLM。執行:infsh app run openrouter/claude-sonnet-45 --input '{"prompt": "Explain quantum computing"}'
非同步任務管理
對於長時間執行的任務,使用非同步模式:'infsh app run google/veo-3 --input input.json --no-wait',然後使用 'infsh task get <task-id>' 檢查狀態並在完成時檢索結果

最佳实践

  • 使用 'infsh app sample <app> --save input.json' 生成範例輸入檔案,以在執行前了解所需的輸入 schema
  • 對於長時間執行的任務(如影片生成)使用非同步模式(--no-wait 旗標),然後分別輪詢任務狀態
  • 使用 'infsh login' 儲存 API 憑證以進行互動式使用,或使用 INFSH_API_KEY 環境變數用於 CI/CD 管線

避免

  • 不要在腳本中硬編碼 API 金鑰或將憑證提交至版本控制
  • 避免在不受信任的環境中執行 CLI,因為它需要 API 金鑰存取
  • 不要對幾秒內完成的快速任務使用 --no-wait - 會增加不必要的複雜性

常见问题

什麼是 inference.sh 以及它如何運作?
inference.sh 是一個雲端平台,託管 150+ 個 AI 模型和服務。CLI 工具與平台進行身份驗證並遠端執行 AI 任務,返回結果而無需本機 GPU 硬體。
透過此 skill 可以使用哪些 AI 模型?
可存取圖像模型(FLUX、Gemini、Grok、Seedream)、影片模型(Veo、Seedance、Wan、OmniHuman)、LLM(透過 OpenRouter 的 Claude、Gemini、Kimi)、搜尋工具(Tavily、Exa)以及 TTS 和 3D 生成等公用程式。
如何透過 inference.sh CLI 進行身份驗證?
執行 'infsh login' 以開啟基於瀏覽器的身份驗證流程。對於 CI/CD,請使用 inference.sh 儀表板中的 API 金鑰設定 INFSH_API_KEY 環境變數。
我可以使用此 skill 在本機上執行 AI 模型嗎?
不可以。此 skill 連線到 inference.sh 平台上的雲端託管 AI 服務。所有模型執行都在他們的基礎設施上遠端進行,而非在本機上。
如何處理長時間執行的任務?
使用 --no-wait 旗標以非同步方式提交任務。CLI 會立即返回任務 ID。隨時使用 'infsh task get <task-id>' 檢查狀態並在完成時檢索結果。
我可以透過 inference.sh 使用自訂 AI 模型嗎?
此 skill 僅支援 inference.sh 平台上可用的模型。您無法上傳或執行自訂模型。使用 'infsh app list' 瀏覽可用模型或使用 'infsh app search' 搜尋。