get-available-resources
Systemressourcen für wissenschaftliches Rechnen erkennen
Auch verfügbar von: davila7
Wissenschaftliche Rechenaufgaben benötigen Hardwareinformationen, um optimale Rechenstrategien auszuwählen. Diese Fähigkeit erkennt automatisch CPU-Kerne, GPU-Verfügbarkeit, Arbeitsspeicher und Speicherplatz und erstellt anschließend Empfehlungen für Parallelverarbeitung und GPU-Beschleunigung.
Die Skill-ZIP herunterladen
In Claude hochladen
Gehe zu Einstellungen → Fähigkeiten → Skills → Skill hochladen
Einschalten und loslegen
Teste es
Verwendung von "get-available-resources". Run get-available-resources to check my system for training a deep learning model.
Erwartetes Ergebnis:
- CPU: 8 logical cores (4 physical) on x86_64
- Memory: 32 GB total, 24 GB available
- Disk: 512 GB total, 180 GB free
- GPU: NVIDIA RTX 4090 (24GB VRAM) with CUDA backend
- Recommendation: Use PyTorch with CUDA for GPU acceleration
- Recommendation: 6 parallel workers for data loading
Verwendung von "get-available-resources". Check resources before processing this genomics dataset.
Erwartetes Ergebnis:
- CPU: 16 logical cores on arm64 (Apple M2 Max)
- Memory: 64 GB unified, 45 GB available
- GPU: Apple Silicon with Metal backend
- Recommendation: Dataset fits in memory, pandas is suitable
- Recommendation: Use PyTorch MPS backend for any ML tasks
- Recommendation: 14 workers for parallel file processing
Sicherheitsaudit
Niedriges RisikoThe skill is safe to publish. All 50 static findings are false positives. The skill performs legitimate system resource detection using subprocess calls to standard system utilities (nvidia-smi, rocm-smi, sysctl, system_profiler) for GPU/CPU detection. All subprocess commands use hardcoded arguments in list format, preventing shell injection. The __import__ usage is for importing the standard datetime module. Markdown backticks triggered false positives for shell execution. 'Weak cryptographic algorithm' findings are scanner errors on non-cryptographic code.
Probleme mit niedrigem Risiko (1)
Risikofaktoren
⚙️ Externe Befehle (4)
⚡ Enthält Skripte (1)
📁 Dateisystemzugriff (1)
Qualitätsbewertung
Was du bauen kannst
Verarbeitung großer Datensätze optimieren
Verfügbaren Speicher erkennen, um festzustellen, ob Datensätze in den RAM passen oder eine chunkweise Verarbeitung mit Dask oder Zarr benötigen.
GPU-Beschleunigungs-Backend auswählen
Verfügbare GPU-Backends (CUDA, Metal, ROCm) identifizieren, um PyTorch oder TensorFlow korrekt zu konfigurieren.
Parallele Worker konfigurieren
Optimale Worker-Anzahl anhand der CPU-Kerne für joblib- oder multiprocessing-Workflows bestimmen.
Probiere diese Prompts
Run get-available-resources to detect what hardware is available for this task.
Check available memory with get-available-resources, then recommend whether to use pandas or Dask for this 20GB CSV file.
Run get-available-resources and tell me which PyTorch device to use based on detected GPU.
Use get-available-resources to determine optimal n_jobs for this joblib Parallel grid search across 1000 parameter combinations.
Bewährte Verfahren
- Ressourcenerkennung zu Beginn von Projekten ausführen, bevor architektonische Entscheidungen zu Datenladung und Parallelisierung getroffen werden.
- Die Fähigkeit erneut ausführen, wenn sich Systembedingungen deutlich ändern oder vor großen Rechenaufgaben.
- Die erzeugte Datei .claude_resources.json in Projektverzeichnissen aufbewahren, um hardwarebewusste Entscheidungen zu dokumentieren.
Vermeiden
- Annehmen, dass erkannte Ressourcen während lang laufender Workflows konstant bleiben, ohne erneut zu prüfen.
- Speicherstrategie-Empfehlungen ignorieren und versuchen, Datensätze zu laden, die größer als der verfügbare RAM sind.
- Vorgeschlagene Worker-Anzahlen nutzen, ohne andere Prozesse zu berücksichtigen, die CPU-Ressourcen verbrauchen.