modal
Ejecuta código Python en la nube
También disponible en: davila7
Modal es una plataforma sin servidor para ejecutar código Python en la nube. Proporciona acceso instantáneo a GPUs, escalado automático y facturación por uso. Despliega modelos de ML, ejecuta trabajos de procesamiento por lotes y sirve APIs sin gestionar infraestructura.
Descargar el ZIP de la skill
Subir en Claude
Ve a Configuración → Capacidades → Skills → Subir skill
Activa y empieza a usar
Pruébalo
Usando "modal". Deploy a Python function that summarizes text using a HuggingFace model on GPU
Resultado esperado:
- ✓ Created Modal app with L40S GPU access
- ✓ Built container image with transformers and torch
- ✓ Deployed web endpoint for text summarization
- ✓ Endpoint available at https://your-app.modal.run
Usando "modal". Run a batch job to process 1000 images in parallel
Resultado esperado:
- ✓ Created worker function with 4 CPU cores and 8GB memory
- ✓ Configured parallel processing across 50 containers
- ✓ Processed 1000 images in ~8 minutes
- ✓ Results saved to Modal Volume at /data/output/
Usando "modal". Schedule daily model retraining at midnight
Resultado esperado:
- ✓ Created scheduled function with cron expression '0 0 * * *'
- ✓ Configured GPU (A100) for training computations
- ✓ Set up secret management for API credentials
- ✓ Training logs available in Modal dashboard
Auditoría de seguridad
SeguroThis is a documentation-only skill for Modal, a legitimate serverless cloud computing platform. All 572 static findings are FALSE POSITIVES. The scanner misinterprets Markdown documentation code examples as executable code. Patterns flagged include CLI commands in documentation (modal run, modal deploy), environment variable documentation, and legitimate Modal API patterns. No malicious code, credential exfiltration, or actual security vulnerabilities exist. This skill contains only documentation files teaching users how to properly use the Modal platform.
Factores de riesgo
⚙️ Comandos externos (6)
🌐 Acceso a red (3)
📁 Acceso al sistema de archivos (3)
🔑 Variables de entorno (3)
Puntuación de calidad
Lo que puedes crear
Desplegar modelos de ML para inferencia
Despliega modelos entrenados (LLMs, clasificadores de imágenes) a producción con aceleración por GPU y autoescalado para tráfico variable.
Ejecutar trabajos de procesamiento por lotes
Procesa grandes conjuntos de datos en paralelo a través de múltiples contenedores. Procesa miles de archivos o filas de datos simultáneamente.
Ejecutar tareas de cómputo en GPU
Ejecuta tareas de investigación computacionalmente intensivas en GPUs H100 o A100. Programa trabajos de entrenamiento y cómputos de larga duración.
Prueba estos prompts
Create a Modal app that runs a Python function on an L40S GPU. The function should load a HuggingFace model and return predictions. Use an appropriate container image with torch and transformers installed.
Set up a Modal function that processes CSV files in parallel. The function should read files from an S3 bucket, apply transformations, and save results. Use CPU parallelism with multiple cores.
Create a Modal scheduled function that runs daily at 2 AM. The function should refresh cached data from an API and update model weights stored in a Modal Volume.
Build a Modal web endpoint that accepts POST requests with input data. The endpoint should run inference using a deployed model and return predictions. Include proper error handling and authentication.
Mejores prácticas
- Fija todas las versiones de paquetes Python en las definiciones de imagen para asegurar compilaciones y despliegues reproducibles
- Usa Modal Secrets separadas para diferentes entornos (dev, staging, production) para evitar la filtración de credenciales
- Configura min_containers apropiado para reducir la latencia de arranque en frío en endpoints sensibles a la latencia
Evitar
- Codificar claves de API o credenciales directamente en el código de la función en lugar de usar Modal Secrets
- Importar dependencias pesadas en el ámbito del módulo en lugar de dentro de los cuerpos de las funciones, ralentizando el arranque del contenedor
- Usar bucles secuenciales para procesamiento por lotes en lugar de .map() para ejecución paralela en contenedores
Preguntas frecuentes
¿Cuánto cuesta Modal?
¿Qué tipos de GPU están disponibles?
¿Cómo me autentico con Modal?
¿Puedo ejecutar trabajos de larga duración?
¿Cómo funciona el autoescalado?
¿Qué versiones de Python se admiten?
Detalles del desarrollador
Autor
K-Dense-AILicencia
Apache-2.0 license
Repositorio
https://github.com/K-Dense-AI/claude-scientific-skills/tree/main/scientific-skills/modalRef.
main
Estructura de archivos