Fähigkeiten agent-tools
📦

agent-tools

Sicher

150+ KI-Modelle über inference.sh CLI ausführen

Auch verfügbar von: tul-sh,inference-sh-0,inference-sh-8,inferencesh,inf-sh,inference-sh-6,inference-sh-7,inference-sh-3

Entwickler benötigen GPU-Infrastruktur und mehrere API-Integrationen, um KI-Modelle zu nutzen. Dieser Skill bietet einen einheitlichen CLI-Zugang zu über 150 cloud-gehosteten KI-Diensten, einschließlich Bilderstellung, Videoerstellung, LLMs und Suchwerkzeugen.

Unterstützt: Claude Codex Code(CC)
🥉 76 Bronze
1

Die Skill-ZIP herunterladen

2

In Claude hochladen

Gehe zu Einstellungen → Fähigkeiten → Skills → Skill hochladen

3

Einschalten und loslegen

Teste es

Verwendung von "agent-tools". infsh app run falai/flux-dev-lora --input '{"prompt": "a cat astronaut"}'

Erwartetes Ergebnis:

Aufgabe erfolgreich abgeschlossen. Gibt JSON mit Bild-URLs zurück, die auf generierte PNG-Dateien verweisen, die auf cloud.inference.sh gehostet werden

Verwendung von "agent-tools". infsh app run tavily/search-assistant --input '{"query": "latest AI news"}'

Erwartetes Ergebnis:

Gibt strukturierte Suchergebnisse zurück, einschließlich Artikeltiteln, URLs, Snippets und Relevanzbewertungen aus der Websuche

Verwendung von "agent-tools". infsh task get abc123def456 --json

Erwartetes Ergebnis:

Gibt Aufgabenstatus-Objekt mit Feldern zurück: id, status (pending/running/completed/failed), created_at, completed_at und Ergebnisdaten

Sicherheitsaudit

Sicher
v1 • 2/26/2026

This is a documentation-only skill containing markdown files that explain how to use the inference.sh CLI platform. All 194 static analyzer findings are false positives: the 'external_commands' detections are markdown code blocks showing example shell commands (not actual code execution), 'network' findings are documentation URLs pointing to the official inference.sh platform, 'env_access' findings document how users should configure API keys, and 'filesystem' findings show installation paths in documentation. The skill contains no executable code, no embedded scripts, and no actual network or filesystem operations.

5
Gescannte Dateien
554
Analysierte Zeilen
0
befunde
1
Gesamtzahl Audits
Keine Sicherheitsprobleme gefunden
Auditiert von: claude

Qualitätsbewertung

45
Architektur
100
Wartbarkeit
87
Inhalt
50
Community
100
Sicherheit
91
Spezifikationskonformität

Was du bauen kannst

Entwickler, die KI-Funktionen integrieren

Bilderzeugung, Videoerstellung oder LLM-Funktionen zu Anwendungen hinzufügen, ohne GPU-Infrastruktur oder mehrere API-Schlüssel zu verwalten. CLI-Befehle zum Testen von Modellen verwenden und über die inference.sh-API integrieren.

Inhaltsersteller, die generative KI nutzen

Bilder, Videos, Audio und 3D-Modelle mit verschiedenen KI-Modellen über einfache CLI-Befehle erstellen. Ausgaben von verschiedenen Modellen wie FLUX, Veo und Gemini vergleichen.

Automatisierungsingenieure

Workflows mit Suchwerkzeugen (Tavily, Exa), Twitter/X-Posting und Stapel-KI-Verarbeitung automatisieren. Mehrere KI-Dienste für komplexe Automatisierungsaufgaben verketten.

Probiere diese Prompts

Grundlegende Bilderzeugung
Use the inference.sh CLI to generate an image. Run: infsh app run falai/flux-dev-lora --input '{"prompt": "a cat astronaut floating in space"}'
Videoerstellung mit Beispieleingabe
Generate a video using Veo. First create sample input with 'infsh app sample google/veo-3-1-fast --save input.json', edit the prompt field, then run 'infsh app run google/veo-3-1-fast --input input.json'
LLM-Integration über OpenRouter
Call Claude or other LLMs through OpenRouter. Run: infsh app run openrouter/claude-sonnet-45 --input '{"prompt": "Explain quantum computing"}'
Asynchrone Aufgabenverwaltung
For long-running tasks, use async mode: 'infsh app run google/veo-3 --input input.json --no-wait', then check status with 'infsh task get <task-id>' and retrieve results when complete

Bewährte Verfahren

  • Generieren Sie Beispieleingabedateien mit 'infsh app sample <app> --save input.json', um das erforderliche Eingabeschema zu verstehen, bevor Sie ausführen
  • Verwenden Sie den asynchronen Modus (--no-wait-Flag) für langlaufende Aufgaben wie Videoerstellung und fragen Sie den Aufgabenstatus separat ab
  • Speichern Sie API-Anmeldedaten mit 'infsh login' für interaktive Nutzung oder INFSH_API_KEY Umgebungsvariable für CI/CD-Pipelines

Vermeiden

  • API-Schlüssel nicht in Skripte hartcodieren oder Anmeldedaten in die Versionskontrolle einchecken
  • Vermeiden Sie das Ausführen der CLI in nicht vertrauenswürdigen Umgebungen, da API-Schlüsselzugriff erforderlich ist
  • Verwenden Sie --no-wait nicht für schnelle Aufgaben, die in Sekunden abgeschlossen werden - fügt unnötige Komplexität hinzu

Häufig gestellte Fragen

Was ist inference.sh und wie funktioniert es?
inference.sh ist eine Cloud-Plattform, die über 150 KI-Modelle und -Dienste hostet. Das CLI-Tool authentifiziert sich mit der Plattform und führt KI-Aufgaben remote aus, ohne lokale GPU-Hardware zu erfordern.
Welche KI-Modelle sind über diesen Skill verfügbar?
Zugang zu Bildmodellen (FLUX, Gemini, Grok, Seedream), Videomodellen (Veo, Seedance, Wan, OmniHuman), LLMs (Claude, Gemini, Kimi über OpenRouter), Suchwerkzeugen (Tavily, Exa) und Dienstprogrammen wie TTS und 3D-Generierung.
Wie authentifiziere ich mich mit der inference.sh CLI?
Führen Sie 'infsh login' aus, um einen browserbasierten Authentifizierungsablauf zu öffnen. Für CI/CD setzen Sie die INFSH_API_KEY Umgebungsvariable mit Ihrem API-Schlüssel aus dem inference.sh-Dashboard.
Kann ich mit diesem Skill KI-Modelle lokal ausführen?
Nein. Dieser Skill verbindet sich mit cloud-gehosteten KI-Diensten auf der inference.sh-Plattform. Alle Modellausführung erfolgt remote auf ihrer Infrastruktur, nicht auf Ihrem lokalen Computer.
Wie werden langlaufende Aufgaben behandelt?
Verwenden Sie das --no-wait-Flag, um Aufgaben asynchron zu übermitteln. Die CLI gibt sofort eine Aufgaben-ID zurück. Überprüfen Sie den Status jederzeit mit 'infsh task get <task-id>' und rufen Sie die Ergebnisse ab, wenn sie fertig sind.
Kann ich benutzerdefinierte KI-Modelle mit inference.sh verwenden?
Dieser Skill unterstützt nur Modelle, die auf der inference.sh-Plattform verfügbar sind. Sie können keine benutzerdefinierten Modelle hochladen oder ausführen. Durchsuchen Sie verfügbare Modelle mit 'infsh app list' oder suchen Sie mit 'infsh app search'.