Compétences agent-tools
🤖

agent-tools

Sûr

Exécutez 150+ applications AI via l'interface CLI inference.sh

Également disponible depuis: inferencesh,inference-sh-0,inference-sh-8,inference-sh-9,inference-shell,skillssh,inf-sh,toolshell,inference-sh-7,inference-sh-6,inference-sh-3,tool-belt,tul-sh

Accédez à plus de 150 modèles AI pour la génération d'images, la création de vidéos, les LLM et la recherche via une interface CLI unifiée. Aucune gestion de GPU ou de clé API requise - inference.sh gère l'exécution dans le cloud.

Prend en charge: Claude Codex Code(CC)
📊 71 Adéquat
1

Télécharger le ZIP du skill

2

Importer dans Claude

Allez dans Paramètres → Capacités → Skills → Importer un skill

3

Activez et commencez à utiliser

Tester

Utilisation de "agent-tools". infsh app run falai/flux-dev-lora --input '{"prompt": "a cat astronaut"}'

Résultat attendu:

Tâche terminée avec l'URL de l'image générée : https://cloud.inference.sh/generated/image-123.png

Utilisation de "agent-tools". infsh app run tavily/search-assistant --input '{"query": "latest AI news"}'

Résultat attendu:

Résultats de recherche retournés avec 5 articles pertinents incluant titres, URLs et résumés

Utilisation de "agent-tools". infsh task get abc123def456 --json

Résultat attendu:

Objet de statut de tâche avec state, created_at, completed_at et output contenant les URLs de résultats

Audit de sécurité

Sûr
v1 • 3/14/2026

Static analyzer flagged 203 patterns in documentation files, but all are false positives. The skill consists of Markdown documentation with code examples, not executable code. Backticks are markdown formatting, URLs are documentation links, and environment variable references are standard API authentication documentation. The documented curl|sh install pattern is industry-standard for CLI tools. No security concerns for publication.

5
Fichiers analysés
596
Lignes analysées
0
résultats
1
Total des audits
Aucun problème de sécurité trouvé
Audité par: claude

Score de qualité

45
Architecture
100
Maintenabilité
87
Contenu
24
Communauté
100
Sécurité
83
Conformité aux spécifications

Ce que vous pouvez construire

Création de contenu AI

Générez des images marketing avec FLUX, créez des vidéos produit avec Veo, ou produisez des modèles 3D pour l'e-commerce sans matériel GPU local.

Intégration LLM

Appelez Claude, Gemini ou d'autres LLM via une interface unifiée pour des tâches de chat, d'analyse et de génération de contenu.

Recherche et Investigation

Utilisez Tavily et Exa pour la recherche web améliorée par l'IA, extrayez le contenu des pages web et collectez des données de recherche de manière programmatique.

Essayez ces prompts

Génération d'image de base
Générer une image avec FLUX en utilisant le prompt : un chat astronaute flottant dans l'espace
Création de vidéo à partir de texte
Créer une vidéo en utilisant Veo 3.1 avec le prompt : vue aérienne par drone survolant une forêt au coucher du soleil
Traitement de fichiers locaux
Upscaler l'image à /path/to/photo.jpg par 2x en utilisant Topaz upscaler
Workflow multi-étapes
Générer une entrée exemple pour google/veo-3-1-fast, sauvegarder dans input.json, puis exécuter avec le prompt édité et suivre le statut de la tâche

Bonnes pratiques

  • Utiliser l'option --no-wait pour les tâches de génération de vidéo de longue durée et interroger le statut avec task get
  • Générer des fichiers d'entrée exemple avec la commande app sample pour comprendre le schéma d'entrée requis
  • Télécharger des fichiers locaux en fournissant les chemins de fichiers directement - le CLI gère le téléchargement automatiquement

Éviter

  • Ne pas coder en dur les clés API dans les scripts - utiliser les variables d'environnement ou infsh login
  • Éviter d'exécuter des apps sans vérifier d'abord le schéma d'entrée avec app get
  • Ne pas ignorer les erreurs de tâche - toujours vérifier le statut de la tâche pour les échecs

Foire aux questions

Comment installer le CLI inference.sh ?
Exécutez curl -fsSL https://cli.inference.sh | sh puis exécutez infsh login pour vous authentifier. L'installateur télécharge le binaire correct pour votre OS et architecture.
Ai-je besoin d'un GPU pour exécuter des modèles AI ?
Non, tous les modèles s'exécutent sur l'infrastructure cloud inference.sh. Votre machine locale a seulement besoin du CLI pour soumettre des jobs et recevoir des résultats.
Comment fonctionne l'authentification ?
Exécutez infsh login pour l'authentification interactive ou définissez la variable d'environnement INFSH_API_KEY pour CI/CD et les scripts automatisés.
Puis-je utiliser des fichiers locaux avec des modèles cloud ?
Oui, fournissez les chemins de fichiers locaux dans le JSON d'entrée et le CLI télécharge automatiquement les fichiers avant d'exécuter l'app.
Que se passe-t-il si une tâche prend trop de temps ?
Utilisez l'option --no-wait pour soumettre et revenir immédiatement, puis interrogez le statut de la tâche avec infsh task get <task-id>.
Comment trouver les modèles AI disponibles ?
Utilisez infsh app list pour voir toutes les apps, infsh app list --category image pour des catégories spécifiques, ou infsh app search flux pour rechercher.

Détails du développeur

Structure de fichiers