agent-tools
inference.sh CLI で 150+ 個の AI モデルを実行
こちらからも入手できます: tul-sh,inference-sh-0,inference-sh-8,inferencesh,inf-sh,inference-sh-6,inference-sh-7,inference-sh-3
開発者は AI モデルを使用するために GPU インフラと複数の API 統合が必要です。このスキルは、画像生成、動画作成、LLM、検索ツールを含む 150 以上のクラウドホスト AI サービスへの統一 CLI アクセスを提供します。
スキルZIPをダウンロード
Claudeでアップロード
設定 → 機能 → スキル → スキルをアップロードへ移動
オンにして利用開始
テストする
「agent-tools」を使用しています。 infsh app run falai/flux-dev-lora --input '{"prompt": "a cat astronaut"}'
期待される結果:
タスクが正常に完了しました。cloud.inference.sh でホストされている生成された PNG ファイルを指す画像 URL を含む JSON を返します
「agent-tools」を使用しています。 infsh app run tavily/search-assistant --input '{"query": "latest AI news"}'
期待される結果:
Web 検索からの記事タイトル、URL、スニペット、関連性スコアを含む構造化検索結果を返します
「agent-tools」を使用しています。 infsh task get abc123def456 --json
期待される結果:
フィールドを含むタスクステータスオブジェクトを返します: id、status (pending/running/completed/failed)、created_at、completed_at、および結果データ
セキュリティ監査
安全This is a documentation-only skill containing markdown files that explain how to use the inference.sh CLI platform. All 194 static analyzer findings are false positives: the 'external_commands' detections are markdown code blocks showing example shell commands (not actual code execution), 'network' findings are documentation URLs pointing to the official inference.sh platform, 'env_access' findings document how users should configure API keys, and 'filesystem' findings show installation paths in documentation. The skill contains no executable code, no embedded scripts, and no actual network or filesystem operations.
品質スコア
作れるもの
AI 機能を統合する開発者
GPU インフラや複数の API キーを管理せずに、アプリケーションに画像生成、動画作成、または LLM 機能を追加します。CLI コマンドを使用してモデルをテストし、inference.sh API 経由で統合します。
生成 AI を使用するコンテンツクリエイター
シンプルな CLI コマンドで各種 AI モデルを使用して画像、動画、オーディオ、3D モデルを生成します。FLUX、Veo、Gemini などの異なるモデルからの出力を比較します。
自動化エンジニア
検索ツール(Tavily、Exa)、Twitter/X 投稿、バッチ AI 処理を使用してワークフローを自動化します。複雑な自動化タスクのために複数の AI サービスを連携させます。
これらのプロンプトを試す
inference.sh CLI を使用して画像を生成します。実行: infsh app run falai/flux-dev-lora --input '{"prompt": "a cat astronaut floating in space"}'Veo を使用して動画を生成します。まず'infsh app sample google/veo-3-1-fast --save input.json'でサンプル入力を作成し、prompt フィールドを編集してから、'infsh app run google/veo-3-1-fast --input input.json'を実行します
OpenRouter を通じて Claude やその他の LLM を呼び出します。実行: infsh app run openrouter/claude-sonnet-45 --input '{"prompt": "Explain quantum computing"}'長時間実行タスクの場合、非同期モードを使用します: 'infsh app run google/veo-3 --input input.json --no-wait'、その後'shf task get <task-id>'でステータスを確認し、完了時に結果を取得します
ベストプラクティス
- 実行前に必要な入力スキーマを理解するために'infsh app sample <app> --save input.json'を使用してサンプル入力ファイルを生成
- 動画生成などの長時間実行タスクには非同期モード(--no-wait フラグ)を使用し、その後タスクステータスを個別にポーリング
- 対話式使用には'infsh login'を使用し、CI/CD パイプラインには INFSH_API_KEY 環境変数を使用して API 認証情報を保存
回避
- スクリプトに API キーをハードコードしたり、バージョン管理に認証情報をコミットしたりしない
- CLI を信頼できない環境で実行しない - API キーアクセスが必要のため
- 数秒で完了する短いタスクには --no-wait を使用しない - 不要な複雑さを追加します