infsh-cli
Accede a más de 250 servicios de IA con la CLI de inference.sh
또한 다음에서 사용할 수 있습니다: inferen-sh,skillssh
Ejecutar modelos de IA normalmente requiere integraciones de API separadas para cada servicio. Esta habilidad proporciona acceso unificado a más de 250 aplicaciones de IA a través de una sola CLI, cubriendo generación de imágenes, creación de vídeo, LLMs, búsqueda web y automatización de redes sociales.
스킬 ZIP 다운로드
Claude에서 업로드
설정 → 기능 → 스킬 → 스킬 업로드로 이동
토글을 켜고 사용 시작
테스트해 보기
"infsh-cli" 사용 중입니다. infsh app run falai/flux-dev-lora --input '{"prompt": "a cat astronaut"}'
예상 결과:
La tarea se completa y devuelve una URL de imagen que apunta al archivo PNG generado en el almacenamiento en la nube de inference.sh
"infsh-cli" 사용 중입니다. infsh app run tavily/search-assistant --input '{"query": "latest AI news"}'
예상 결과:
Devuelve una lista de resultados de búsqueda con títulos, URL y breves resúmenes de fuentes web confiables
"infsh-cli" 사용 중입니다. infsh app list --category image
예상 결과:
Muestra una tabla de aplicaciones de generación de imágenes disponibles, incluyendo FLUX, Gemini, Grok y Seedance con sus categorías y estado destacado
보안 감사
낮은 위험All 203 static analysis findings are false positives. The skill consists entirely of markdown documentation files with bash code examples. Patterns flagged as 'external_commands' are markdown code blocks (triple-backtick syntax), not executable code. 'Network' findings are documentation URLs for the inference.sh platform. 'Pipe to shell' references show the standard documented install method (curl | sh) from the official inference.sh domain. 'API key' findings reference environment variable documentation, not actual credential exposure. 'Weak cryptographic algorithm' findings reference sha256sum checksum verification, which is appropriate. No executable code or malicious intent detected. Low risk assigned because the skill permits Bash execution of the infsh CLI, which makes network requests and requires API credentials.
위험 요인
⚙️ 외부 명령어 (146)
🌐 네트워크 접근 (32)
🔑 환경 변수 (3)
품질 점수
만들 수 있는 것
Prototipado rápido de IA para desarrolladores
Los desarrolladores pueden probar e integrar rápidamente múltiples modelos de IA sin escribir integraciones de API separadas. Un solo comando de la CLI da acceso a generación de imágenes, creación de vídeo y LLMs a través de múltiples proveedores.
Automatización de flujos de trabajo de creación de contenido
Los creadores de contenido pueden generar imágenes, vídeos y modelos 3D mediante comandos simples de la CLI, y luego automatizar la publicación en redes sociales sin cambiar entre múltiples plataformas.
Investigación de IA y comparación de modelos
Los investigadores pueden comparar resultados entre diferentes modelos y proveedores usando formatos de entrada consistentes, alternando entre FLUX, Gemini y Grok para experimentos de generación de imágenes.
이 프롬프트를 사용해 보세요
Genera una imagen de un gato astronauta flotando en el espacio usando el modelo FLUX a través de inference.sh
Crea un vídeo corto mostrando un dron volando sobre montañas al atardecer usando Google Veo a través de la CLI infsh
Busca las últimas novedades en computación cuántica usando la búsqueda Tavily a través de inference.sh y resume los resultados
Genera una imagen con FLUX, luego crea un vídeo a partir de ella usando Wan image-to-video, y publica el resultado en Twitter. Usa fijación de versiones para reproducibilidad.
모범 사례
- Usa fijación de versiones (namespace/app-name@version) para flujos de trabajo en producción para garantizar resultados reproducibles
- Genera entradas de ejemplo con 'infsh app sample' antes de ejecutar aplicaciones desconocidas para comprender los parámetros requeridos
- Usa la bandera --no-wait para tareas de larga duración como la generación de vídeo y verifica el estado más tarde con 'infsh task get'
피하기
- No hardcodees claves de API en prompts o scripts. Usa la variable de entorno INFSH_API_KEY o ejecuta infsh login
- Evita ejecutar aplicaciones sin probar en producción sin primero verificar el esquema de entrada con 'infsh app get'
- No omitas la verificación de checksum al instalar manualmente la CLI, ya que esto asegura la integridad del binario
자주 묻는 질문
¿Cómo instalo la CLI de inference.sh?
¿Cómo me autentico con inference.sh?
¿Cuántos modelos de IA hay disponibles?
¿Puedo usar archivos locales como entrada?
¿Cómo verifico el estado de una tarea de larga duración?
¿Puedo fijar versiones específicas de modelos?
개발자 세부 정보
파일 구조