modal
Déployer Python dans le cloud avec GPU et autoscaling
こちらからも入手できます: K-Dense-AI
Exécuter des modèles ML et du traitement par lots localement est lent et coûteux. Modal vous permet de déployer des fonctions Python dans le cloud avec accès automatique aux GPU, des conteneurs qui évoluent de zéro à des milliers, et une facturation au calcul uniquement.
スキルZIPをダウンロード
Claudeでアップロード
設定 → 機能 → スキル → スキルをアップロードへ移動
オンにして利用開始
テストする
「modal」を使用しています。 Déployer un modèle d'analyse de sentiment sur Modal avec GPU
期待される結果:
- Créer une Modal App avec une image personnalisée (debian_slim avec torch et transformers)
- Définir la configuration GPU (L40S pour une inférence rentable)
- Construire un service basé sur une classe avec @modal.enter() pour le chargement du modèle
- Créer @modal.method() pour les appels d'inférence
- Ajouter @modal.web_endpoint() pour l'accès HTTP
- Déployer avec : modal deploy script.py
「modal」を使用しています。 Traiter 500 fichiers en parallèle avec Modal
期待される結果:
- Définir une image avec pandas et numpy pour le traitement des données
- Créer une fonction process_file avec des paramètres CPU et mémoire
- Utiliser .map() pour distribuer 500 fichiers sur les conteneurs
- Configurer max_containers pour les limites d'exécution parallèle
- Agréger les résultats de toutes les exécutions parallèles
「modal」を使用しています。 Configurer une tâche planifiée quotidienne pour un pipeline de données
期待される結果:
- Créer une Modal App avec les dépendances requises
- Définir une fonction avec @app.function(schedule=modal.Cron('0 2 * * *'))
- Ajouter un montage Volume pour les données d'entrée et de sortie
- Configurer les secrets pour les identifiants de base de données
- Déployer avec modal deploy pour la planification en production
セキュリティ監査
安全Documentation-only skill containing no executable code. All 566 static findings are false positives - the scanner misinterpreted markdown documentation examples as executable code. The skill contains only Markdown files explaining how to use the Modal cloud platform, with no Python files, scripts, or actual command execution capabilities.
リスク要因
⚡ スクリプトを含む (1)
⚙️ 外部コマンド (476)
🌐 ネットワークアクセス (21)
📁 ファイルシステムへのアクセス (14)
🔑 環境変数 (25)
品質スコア
作れるもの
Déployer l'inférence de modèle ML
Servir des modèles transformers et des modèles ML personnalisés avec accélération GPU et mise à l'échelle automatique
Exécuter le traitement de données par lots
Traiter de grands ensembles de données en parallèle sur des centaines de conteneurs sans gérer l'infrastructure
Planifier des tâches de calcul
Automatiser les tâches périodiques comme le réentraînement de modèles, les pipelines de données et la génération de rapports
これらのプロンプトを試す
Aide-moi à déployer un modèle transformer Hugging Face sur Modal pour l'inférence. Je veux utiliser un GPU L40S et servir des prédictions via un point de terminaison web.
Crée un script Modal qui traite 1000 fichiers CSV en parallèle sur plusieurs conteneurs en utilisant .map(). Chaque fichier nécessite des ressources CPU et mémoire.
Configure une tâche planifiée hebdomadaire sur Modal qui réentraîne mon modèle sur de nouvelles données chaque dimanche à 2h UTC. Inclure l'accès GPU et la sauvegarde des checkpoints sur un Volume.
Construis un point de terminaison web Modal qui utilise FastAPI, nécessite une authentification par bearer token, et accède à des API externes en utilisant Modal Secrets pour les identifiants.
ベストプラクティス
- Épingler les versions de packages dans les définitions d'images pour des builds reproductibles
- Utiliser des Volumes pour stocker les poids de modèles et éviter le re-téléchargement à chaque exécution
- Configurer min_containers pour réduire la latence de démarrage à froid pour les API de production
回避
- Coder en dur les clés API dans le code au lieu d'utiliser Modal Secrets
- Traiter les éléments un par un au lieu d'utiliser .map() pour l'exécution parallèle
- Oublier d'appeler volume.commit() après l'écriture de données qui doivent persister