modal
Desplegar Python en la nube con GPUs y escalado automático
또한 다음에서 사용할 수 있습니다: K-Dense-AI
Ejecutar modelos ML y procesamiento por lotes localmente es lento y costoso. Modal te permite desplegar funciones Python en la nube con acceso automático a GPUs, contenedores que escalan de cero a miles, y facturación de solo pagar por compute.
스킬 ZIP 다운로드
Claude에서 업로드
설정 → 기능 → 스킬 → 스킬 업로드로 이동
토글을 켜고 사용 시작
테스트해 보기
"modal" 사용 중입니다. Deploy a sentiment analysis model to Modal with GPU
예상 결과:
- Create Modal App with custom image (debian_slim with torch and transformers)
- Define GPU configuration (L40S for cost-effective inference)
- Build class-based service with @modal.enter() for model loading
- Create @modal.method() for inference calls
- Add @modal.web_endpoint() for HTTP access
- Deploy with: modal deploy script.py
"modal" 사용 중입니다. Process 500 files in parallel with Modal
예상 결과:
- Define image with pandas and numpy for data processing
- Create process_file function with CPU and memory parameters
- Use .map() to distribute 500 files across containers
- Configure max_containers for parallel execution limits
- Aggregate results from all parallel runs
"modal" 사용 중입니다. Set up a daily scheduled job for data pipeline
예상 결과:
- Create Modal App with required dependencies
- Define function with @app.function(schedule=modal.Cron('0 2 * * *'))
- Add Volume mount for input and output data
- Configure secrets for database credentials
- Deploy with modal deploy for production scheduling
보안 감사
안전Documentation-only skill containing no executable code. All 566 static findings are false positives - the scanner misinterpreted markdown documentation examples as executable code. The skill contains only Markdown files explaining how to use the Modal cloud platform, with no Python files, scripts, or actual command execution capabilities.
위험 요인
⚡ 스크립트 포함 (1)
⚙️ 외부 명령어 (476)
🌐 네트워크 접근 (21)
📁 파일 시스템 액세스 (14)
🔑 환경 변수 (25)
품질 점수
만들 수 있는 것
Desplegar inferencia de modelos ML
Servir modelos transformer y modelos ML personalizados con aceleración GPU y escalado automático
Ejecutar procesamiento de datos por lotes
Procesar grandes conjuntos de datos en paralelo a través de cientos de contenedores sin gestionar infraestructura
Programar trabajos de compute
Automatizar tareas periódicas como reentrenamiento de modelos, pipelines de datos y generación de reportes
이 프롬프트를 사용해 보세요
Ayúdame a desplegar un modelo transformer de Hugging Face a Modal para inferencia. Quiero usar una GPU L40S y servir predicciones a través de un endpoint web.
Crea un script de Modal que procese 1000 archivos CSV en paralelo a través de múltiples contenedores usando .map(). Cada archivo necesita recursos de CPU y memoria.
Configura un trabajo programado semanal en Modal que reentrene mi modelo con datos nuevos cada domingo a las 2 AM UTC. Incluye acceso a GPU y guardado de checkpoints a un Volume.
Construye un endpoint web de Modal que use FastAPI, requiera autenticación con bearer token, y acceda a APIs externas usando Modal Secrets para credenciales.
모범 사례
- Fijar versiones de paquetes en definiciones de imagen para builds reproducibles
- Usar Volumes para almacenar pesos de modelos y evitar re-descargar en cada ejecución
- Configurar min_containers para reducir latencia de cold start en APIs de producción
피하기
- Hardcodear claves API en código en lugar de usar Modal Secrets
- Procesar elementos uno por uno en lugar de usar .map() para ejecución paralela
- Olvidar llamar volume.commit() después de escribir datos que necesitan persistir