modal
Python mit GPUs und Autoskalierung in der Cloud bereitstellen
也可從以下取得: K-Dense-AI
ML-Modelle und Batch-Verarbeitung lokal auszuführen ist langsam und teuer. Modal ermöglicht es Ihnen, Python-Funktionen in der Cloud mit automatischem GPU-Zugriff, Containern, die von null auf Tausende skalieren, und nutzungsbasierter Abrechnung bereitzustellen.
下載技能 ZIP
在 Claude 中上傳
前往 設定 → 功能 → 技能 → 上傳技能
開啟並開始使用
測試它
正在使用「modal」。 Sentiment-Analyse-Modell mit GPU auf Modal bereitstellen
預期結果:
- Modal App mit benutzerdefiniertem Image erstellen (debian_slim mit torch und transformers)
- GPU-Konfiguration definieren (L40S für kosteneffektive Inferenz)
- Klassenbasierten Service mit @modal.enter() für Modellladung erstellen
- @modal.method() für Inferenz-Aufrufe erstellen
- @modal.web_endpoint() für HTTP-Zugriff hinzufügen
- Mit modal deploy script.py bereitstellen
正在使用「modal」。 500 Dateien parallel mit Modal verarbeiten
預期結果:
- Image mit pandas und numpy für Datenverarbeitung definieren
- process_file-Funktion mit CPU- und Speicherparametern erstellen
- .map() verwenden, um 500 Dateien über Container zu verteilen
- max_containers für parallele Ausführungslimits konfigurieren
- Ergebnisse aus allen parallelen Ausführungen aggregieren
正在使用「modal」。 Täglich geplanten Job für Datenpipeline einrichten
預期結果:
- Modal App mit erforderlichen Abhängigkeiten erstellen
- Funktion mit @app.function(schedule=modal.Cron('0 2 * * *')) definieren
- Volume-Mount für Ein- und Ausgabedaten hinzufügen
- Secrets für Datenbank-Anmeldedaten konfigurieren
- Mit modal deploy für Produktionsplanung bereitstellen
安全審計
安全Documentation-only skill containing no executable code. All 566 static findings are false positives - the scanner misinterpreted markdown documentation examples as executable code. The skill contains only Markdown files explaining how to use the Modal cloud platform, with no Python files, scripts, or actual command execution capabilities.
風險因素
⚡ 包含腳本 (1)
⚙️ 外部命令 (476)
🌐 網路存取 (21)
📁 檔案系統存取 (14)
🔑 環境變數 (25)
品質評分
你能建構什麼
ML-Modell-Inferenz bereitstellen
Transformer-Modelle und benutzerdefinierte ML-Modelle mit GPU-Beschleunigung und automatischer Skalierung bereitstellen
Batch-Datenverarbeitung ausführen
Große Datensätze parallel über Hunderte von Containern verarbeiten, ohne Infrastruktur zu verwalten
Rechenaufgaben planen
Periodische Aufgaben wie Modell-Retraining, Datenpipelines und Berichtserstellung automatisieren
試試這些提示
Hilf mir, ein Hugging Face Transformer-Modell auf Modal für Inferenz bereitzustellen. Ich möchte eine L40S GPU verwenden und Vorhersagen über einen Web-Endpunkt bereitstellen.
Erstelle ein Modal-Skript, das 1000 CSV-Dateien parallel über mehrere Container mit .map() verarbeitet. Jede Datei benötigt CPU- und Speicherressourcen.
Richte einen wöchentlich geplanten Job auf Modal ein, der mein Modell jeden Sonntag um 2 Uhr UTC mit neuen Daten neu trainiert. Füge GPU-Zugriff und Checkpoint-Speicherung auf einem Volume hinzu.
Erstelle einen Modal-Web-Endpunkt, der FastAPI verwendet, Bearer-Token-Authentifizierung erfordert und auf externe APIs mit Modal Secrets für Anmeldedaten zugreift.
最佳實務
- Paketversionen in Image-Definitionen festlegen für reproduzierbare Builds
- Volumes verwenden, um Modellgewichte zu speichern und erneutes Herunterladen bei jeder Ausführung zu vermeiden
- min_containers konfigurieren, um Kaltstart-Latenz für Produktions-APIs zu reduzieren
避免
- API-Schlüssel im Code hartcodieren, anstatt Modal Secrets zu verwenden
- Elemente einzeln verarbeiten, anstatt .map() für parallele Ausführung zu verwenden
- Vergessen, volume.commit() nach dem Schreiben von Daten aufzurufen, die persistiert werden müssen