☁️

modal

Sicher ⚙️ Externe Befehle🌐 Netzwerkzugriff📁 Dateisystemzugriff🔑 Umgebungsvariablen

Python-Code in der Cloud ausfuehren

Auch verfügbar von: davila7

Modal ist eine serverlose Plattform zum Ausfuehren von Python-Code in der Cloud. Sie bietet sofortigen Zugriff auf GPUs, automatische Skalierung und nutzungsbasierte Abrechnung. Stellen Sie ML-Modelle bereit, fuehren Sie Batch-Verarbeitungsjobs aus und bedienen Sie APIs, ohne Infrastruktur zu verwalten.

Unterstützt: Claude Codex Code(CC)
📊 71 Angemessen
1

Die Skill-ZIP herunterladen

2

In Claude hochladen

Gehe zu Einstellungen → Fähigkeiten → Skills → Skill hochladen

3

Einschalten und loslegen

Teste es

Verwendung von "modal". Deploy a Python function that summarizes text using a HuggingFace model on GPU

Erwartetes Ergebnis:

  • ✓ Modal-App mit L40S-GPU-Zugriff erstellt
  • ✓ Container-Image mit transformers und torch gebaut
  • ✓ Web-Endpunkt fuer Textzusammenfassung bereitgestellt
  • ✓ Endpunkt verfuegbar unter https://your-app.modal.run

Verwendung von "modal". Run a batch job to process 1000 images in parallel

Erwartetes Ergebnis:

  • ✓ Worker-Funktion mit 4 CPU-Kernen und 8GB Speicher erstellt
  • ✓ Parallele Verarbeitung ueber 50 Container konfiguriert
  • ✓ 1000 Bilder in ~8 Minuten verarbeitet
  • ✓ Ergebnisse in Modal Volume unter /data/output/ gespeichert

Verwendung von "modal". Schedule daily model retraining at midnight

Erwartetes Ergebnis:

  • ✓ Geplante Funktion mit Cron-Ausdruck '0 0 * * *' erstellt
  • ✓ GPU (A100) fuer Trainingsberechnungen konfiguriert
  • ✓ Secret-Management fuer API-Zugangsdaten eingerichtet
  • ✓ Trainingslogs im Modal-Dashboard verfuegbar

Sicherheitsaudit

Sicher
v4 • 1/17/2026

This is a documentation-only skill for Modal, a legitimate serverless cloud computing platform. All 572 static findings are FALSE POSITIVES. The scanner misinterprets Markdown documentation code examples as executable code. Patterns flagged include CLI commands in documentation (modal run, modal deploy), environment variable documentation, and legitimate Modal API patterns. No malicious code, credential exfiltration, or actual security vulnerabilities exist. This skill contains only documentation files teaching users how to properly use the Modal platform.

14
Gescannte Dateien
6,111
Analysierte Zeilen
4
befunde
4
Gesamtzahl Audits
Auditiert von: claude Audit-Verlauf anzeigen →

Qualitätsbewertung

45
Architektur
100
Wartbarkeit
87
Inhalt
21
Community
100
Sicherheit
91
Spezifikationskonformität

Was du bauen kannst

ML-Modelle fuer Inferenz bereitstellen

Bereitstellung trainierter Modelle (LLMs, Bildklassifikatoren) in Produktion mit GPU-Beschleunigung und Auto-Skalierung fuer variablen Traffic.

Batch-Verarbeitungsjobs ausfuehren

Verarbeiten Sie grosse Datensaetze parallel ueber mehrere Container. Verarbeiten Sie Tausende von Dateien oder Datenzeilen gleichzeitig.

GPU-Compute-Aufgaben ausfuehren

Fuehren Sie rechenintensive Forschungsaufgaben auf H100- oder A100-GPUs aus. Planen Sie Trainingsjobs und langlaufende Berechnungen.

Probiere diese Prompts

Grundlegende GPU-Bereitstellung
Create a Modal app that runs a Python function on an L40S GPU. The function should load a HuggingFace model and return predictions. Use an appropriate container image with torch and transformers installed.
Batch-Verarbeitung
Set up a Modal function that processes CSV files in parallel. The function should read files from an S3 bucket, apply transformations, and save results. Use CPU parallelism with multiple cores.
Geplante Jobs
Create a Modal scheduled function that runs daily at 2 AM. The function should refresh cached data from an API and update model weights stored in a Modal Volume.
Web-API
Build a Modal web endpoint that accepts POST requests with input data. The endpoint should run inference using a deployed model and return predictions. Include proper error handling and authentication.

Bewährte Verfahren

  • Alle Python-Paketversionen in Image-Definitionen fixieren, um reproduzierbare Builds und Deployments sicherzustellen
  • Separate Modal Secrets fuer verschiedene Umgebungen (dev, staging, production) verwenden, um das Leaken von Zugangsdaten zu verhindern
  • Geeignete min_containers konfigurieren, um Cold-Start-Latenz bei latenzsensitiven Endpunkten zu reduzieren

Vermeiden

  • API-Schluessel oder Zugangsdaten direkt im Funktionscode hart kodieren, statt Modal Secrets zu verwenden
  • Schwere Abhaengigkeiten auf Modulebene importieren statt innerhalb von Funktionskoerpern, was den Container-Start verlangsamt
  • Sequenzielle Schleifen fuer Batch-Verarbeitung verwenden statt .map() fuer parallele Ausfuehrung ueber Container hinweg

Häufig gestellte Fragen

Was kostet Modal?
Modal bietet nutzungsbasierte Preise. Sie zahlen nur fuer die genutzte Rechenzeit. Neue Nutzer erhalten 30 USD/Monat an kostenlosen Credits. GPU-Instanzen und groessere Container kosten mehr.
Welche GPU-Typen sind verfuegbar?
Modal bietet T4-, L4-, A10-, A100-, A100-80GB-, L40S-, H100-, H200- und B200-GPUs. Verschiedene Modelle bieten unterschiedliche Preis-Leistungs-Abwaegungen fuer Inferenz versus Training.
Wie authentifiziere ich mich bei Modal?
Run 'modal token new' to open a browser login. This stores credentials in ~/.modal.toml. Alternatively, set MODAL_TOKEN_ID and MODAL_TOKEN_SECRET environment variables.
Kann ich langlaufende Jobs ausfuehren?
Ja, aber das Standard-Timeout betraegt 5 Minuten. Erhoehen Sie es mit dem timeout-Parameter auf bis zu 24 Stunden. Fuer laengere Jobs sollten Sie die Arbeit in Teile aufteilen oder geplante Jobs verwenden.
Wie funktioniert Autoscaling?
Modal skaliert Container automatisch von Null bis max_containers basierend auf eingehenden Anfragen. Setzen Sie min_containers, um fuer geringe Latenz warm zu halten. Verwenden Sie buffer_containers fuer Lastspitzen.
Welche Python-Versionen werden unterstuetzt?
Modal unterstuetzt Python 3.8 bis 3.12. Geben Sie python_version in der Image-Definition an. Python 3.11 oder 3.12 wird fuer beste Performance bei ML-Workloads empfohlen.