modal
Python-Code in der Cloud ausfuehren
Auch verfügbar von: davila7
Modal ist eine serverlose Plattform zum Ausfuehren von Python-Code in der Cloud. Sie bietet sofortigen Zugriff auf GPUs, automatische Skalierung und nutzungsbasierte Abrechnung. Stellen Sie ML-Modelle bereit, fuehren Sie Batch-Verarbeitungsjobs aus und bedienen Sie APIs, ohne Infrastruktur zu verwalten.
Die Skill-ZIP herunterladen
In Claude hochladen
Gehe zu Einstellungen → Fähigkeiten → Skills → Skill hochladen
Einschalten und loslegen
Teste es
Verwendung von "modal". Deploy a Python function that summarizes text using a HuggingFace model on GPU
Erwartetes Ergebnis:
- ✓ Modal-App mit L40S-GPU-Zugriff erstellt
- ✓ Container-Image mit transformers und torch gebaut
- ✓ Web-Endpunkt fuer Textzusammenfassung bereitgestellt
- ✓ Endpunkt verfuegbar unter https://your-app.modal.run
Verwendung von "modal". Run a batch job to process 1000 images in parallel
Erwartetes Ergebnis:
- ✓ Worker-Funktion mit 4 CPU-Kernen und 8GB Speicher erstellt
- ✓ Parallele Verarbeitung ueber 50 Container konfiguriert
- ✓ 1000 Bilder in ~8 Minuten verarbeitet
- ✓ Ergebnisse in Modal Volume unter /data/output/ gespeichert
Verwendung von "modal". Schedule daily model retraining at midnight
Erwartetes Ergebnis:
- ✓ Geplante Funktion mit Cron-Ausdruck '0 0 * * *' erstellt
- ✓ GPU (A100) fuer Trainingsberechnungen konfiguriert
- ✓ Secret-Management fuer API-Zugangsdaten eingerichtet
- ✓ Trainingslogs im Modal-Dashboard verfuegbar
Sicherheitsaudit
SicherThis is a documentation-only skill for Modal, a legitimate serverless cloud computing platform. All 572 static findings are FALSE POSITIVES. The scanner misinterprets Markdown documentation code examples as executable code. Patterns flagged include CLI commands in documentation (modal run, modal deploy), environment variable documentation, and legitimate Modal API patterns. No malicious code, credential exfiltration, or actual security vulnerabilities exist. This skill contains only documentation files teaching users how to properly use the Modal platform.
Risikofaktoren
⚙️ Externe Befehle (6)
🌐 Netzwerkzugriff (3)
📁 Dateisystemzugriff (3)
🔑 Umgebungsvariablen (3)
Qualitätsbewertung
Was du bauen kannst
ML-Modelle fuer Inferenz bereitstellen
Bereitstellung trainierter Modelle (LLMs, Bildklassifikatoren) in Produktion mit GPU-Beschleunigung und Auto-Skalierung fuer variablen Traffic.
Batch-Verarbeitungsjobs ausfuehren
Verarbeiten Sie grosse Datensaetze parallel ueber mehrere Container. Verarbeiten Sie Tausende von Dateien oder Datenzeilen gleichzeitig.
GPU-Compute-Aufgaben ausfuehren
Fuehren Sie rechenintensive Forschungsaufgaben auf H100- oder A100-GPUs aus. Planen Sie Trainingsjobs und langlaufende Berechnungen.
Probiere diese Prompts
Create a Modal app that runs a Python function on an L40S GPU. The function should load a HuggingFace model and return predictions. Use an appropriate container image with torch and transformers installed.
Set up a Modal function that processes CSV files in parallel. The function should read files from an S3 bucket, apply transformations, and save results. Use CPU parallelism with multiple cores.
Create a Modal scheduled function that runs daily at 2 AM. The function should refresh cached data from an API and update model weights stored in a Modal Volume.
Build a Modal web endpoint that accepts POST requests with input data. The endpoint should run inference using a deployed model and return predictions. Include proper error handling and authentication.
Bewährte Verfahren
- Alle Python-Paketversionen in Image-Definitionen fixieren, um reproduzierbare Builds und Deployments sicherzustellen
- Separate Modal Secrets fuer verschiedene Umgebungen (dev, staging, production) verwenden, um das Leaken von Zugangsdaten zu verhindern
- Geeignete min_containers konfigurieren, um Cold-Start-Latenz bei latenzsensitiven Endpunkten zu reduzieren
Vermeiden
- API-Schluessel oder Zugangsdaten direkt im Funktionscode hart kodieren, statt Modal Secrets zu verwenden
- Schwere Abhaengigkeiten auf Modulebene importieren statt innerhalb von Funktionskoerpern, was den Container-Start verlangsamt
- Sequenzielle Schleifen fuer Batch-Verarbeitung verwenden statt .map() fuer parallele Ausfuehrung ueber Container hinweg