modal
Запуск кода Python в облаке
Также доступно от: davila7
Modal — это бессерверная платформа для запуска кода Python в облаке. Она предоставляет мгновенный доступ к GPU, автоматическое масштабирование и оплату по факту использования. Развертывайте ML‑модели, выполняйте пакетные задания и обслуживайте API без управления инфраструктурой.
Скачать ZIP навыка
Загрузить в Claude
Перейдите в Settings → Capabilities → Skills → Upload skill
Включите и начните использовать
Протестировать
Использование «modal». Deploy a Python function that summarizes text using a HuggingFace model on GPU
Ожидаемый результат:
- ✓ Created Modal app with L40S GPU access
- ✓ Built container image with transformers and torch
- ✓ Deployed web endpoint for text summarization
- ✓ Endpoint available at https://your-app.modal.run
Использование «modal». Run a batch job to process 1000 images in parallel
Ожидаемый результат:
- ✓ Created worker function with 4 CPU cores and 8GB memory
- ✓ Configured parallel processing across 50 containers
- ✓ Processed 1000 images in ~8 minutes
- ✓ Results saved to Modal Volume at /data/output/
Использование «modal». Schedule daily model retraining at midnight
Ожидаемый результат:
- ✓ Created scheduled function with cron expression '0 0 * * *'
- ✓ Configured GPU (A100) for training computations
- ✓ Set up secret management for API credentials
- ✓ Training logs available in Modal dashboard
Аудит безопасности
БезопасноThis is a documentation-only skill for Modal, a legitimate serverless cloud computing platform. All 572 static findings are FALSE POSITIVES. The scanner misinterprets Markdown documentation code examples as executable code. Patterns flagged include CLI commands in documentation (modal run, modal deploy), environment variable documentation, and legitimate Modal API patterns. No malicious code, credential exfiltration, or actual security vulnerabilities exist. This skill contains only documentation files teaching users how to properly use the Modal platform.
Факторы риска
⚙️ Внешние команды (6)
🌐 Доступ к сети (3)
📁 Доступ к файловой системе (3)
🔑 Переменные окружения (3)
Оценка качества
Что вы можете построить
Развертывание ML‑моделей для инференса
Развертывайте обученные модели (LLM, классификаторы изображений) в продакшене с ускорением на GPU и авто‑масштабированием под переменный трафик.
Запуск пакетных заданий
Обрабатывайте большие наборы данных параллельно в нескольких контейнерах. Обрабатывайте тысячи файлов или строк данных одновременно.
Выполнение GPU‑задач
Запускайте вычислительно интенсивные исследовательские задачи на H100 или A100 GPU. Планируйте задания обучения и длительные вычисления.
Попробуйте эти промпты
Create a Modal app that runs a Python function on an L40S GPU. The function should load a HuggingFace model and return predictions. Use an appropriate container image with torch and transformers installed.
Set up a Modal function that processes CSV files in parallel. The function should read files from an S3 bucket, apply transformations, and save results. Use CPU parallelism with multiple cores.
Create a Modal scheduled function that runs daily at 2 AM. The function should refresh cached data from an API and update model weights stored in a Modal Volume.
Build a Modal web endpoint that accepts POST requests with input data. The endpoint should run inference using a deployed model and return predictions. Include proper error handling and authentication.
Лучшие практики
- Закрепляйте версии всех пакетов Python в определениях образов, чтобы обеспечить воспроизводимые сборки и развертывания
- Используйте отдельные Modal Secrets для разных окружений (dev, staging, production), чтобы предотвратить утечки учетных данных
- Настраивайте соответствующий min_containers, чтобы уменьшить задержку холодного старта для чувствительных к задержке эндпоинтов
Избегать
- Хардкод ключей API или учетных данных прямо в коде функции вместо использования Modal Secrets
- Импорт тяжелых зависимостей на уровне модуля вместо внутри тела функции, что замедляет запуск контейнера
- Использование последовательных циклов для пакетной обработки вместо .map() для параллельного выполнения по контейнерам
Часто задаваемые вопросы
Сколько стоит Modal?
Какие типы GPU доступны?
Как пройти аутентификацию в Modal?
Можно ли запускать длительные задания?
Как работает автоскейлинг?
Какие версии Python поддерживаются?
Сведения для разработчиков
Автор
K-Dense-AIЛицензия
Apache-2.0 license
Репозиторий
https://github.com/K-Dense-AI/claude-scientific-skills/tree/main/scientific-skills/modalСсылка
main
Структура файлов