Compétences get-available-resources
🔍

get-available-resources

Risque faible ⚙️ Commandes externes⚡ Contient des scripts📁 Accès au système de fichiers

Détecter les ressources système pour le calcul scientifique

Également disponible depuis: davila7

Les tâches de calcul scientifique nécessitent des informations sur le matériel pour sélectionner des stratégies computationnelles optimales. Cette compétence détecte automatiquement les cœurs de processeur, la disponibilité GPU, la mémoire et l'espace disque, puis génère des recommandations pour le traitement parallèle et l'accélération GPU.

Prend en charge: Claude Codex Code(CC)
📊 69 Adéquat
1

Télécharger le ZIP du skill

2

Importer dans Claude

Allez dans Paramètres → Capacités → Skills → Importer un skill

3

Activez et commencez à utiliser

Tester

Utilisation de "get-available-resources". Exécuter get-available-resources pour vérifier mon système pour l'entraînement d'un modèle d'apprentissage profond.

Résultat attendu:

  • CPU : 8 cœurs logiques (4 physiques) sur x86_64
  • Mémoire : 32 Go total, 24 Go disponibles
  • Disque : 512 Go total, 180 Go libres
  • GPU : NVIDIA RTX 4090 (24Go VRAM) avec backend CUDA
  • Recommandation : Utiliser PyTorch avec CUDA pour l'accélération GPU
  • Recommandation : 6 workers parallèles pour le chargement de données

Utilisation de "get-available-resources". Vérifier les ressources avant de traiter cet ensemble de données génomiques.

Résultat attendu:

  • CPU : 16 cœurs logiques sur arm64 (Apple M2 Max)
  • Mémoire : 64 Go unifiés, 45 Go disponibles
  • GPU : Apple Silicon avec backend Metal
  • Recommandation : L'ensemble de données tient en mémoire, pandas est adapté
  • Recommandation : Utiliser le backend MPS de PyTorch pour les tâches ML
  • Recommandation : 14 workers pour le traitement parallèle de fichiers

Audit de sécurité

Risque faible
v5 • 1/17/2026

The skill is safe to publish. All 50 static findings are false positives. The skill performs legitimate system resource detection using subprocess calls to standard system utilities (nvidia-smi, rocm-smi, sysctl, system_profiler) for GPU/CPU detection. All subprocess commands use hardcoded arguments in list format, preventing shell injection. The __import__ usage is for importing the standard datetime module. Markdown backticks triggered false positives for shell execution. 'Weak cryptographic algorithm' findings are scanner errors on non-cryptographic code.

4
Fichiers analysés
1,073
Lignes analysées
4
résultats
5
Total des audits
Problèmes à risque faible (1)
JSON file output to disk
Skill writes a JSON file to disk (.claude_resources.json) containing system resource information. This is expected behavior but users should be aware.

Score de qualité

45
Architecture
100
Maintenabilité
87
Contenu
21
Communauté
88
Sécurité
91
Conformité aux spécifications

Ce que vous pouvez construire

Optimiser le traitement de grands ensembles de données

Détecter la mémoire disponible pour déterminer si les ensembles de données tiennent dans la RAM ou nécessitent un traitement fragmenté avec Dask ou Zarr.

Sélectionner le backend d'accélération GPU

Identifier les backends GPU disponibles (CUDA, Metal, ROCm) pour configurer correctement PyTorch ou TensorFlow.

Configurer les workers parallèles

Déterminer le nombre optimal de workers basé sur les cœurs de processeur pour les workflows joblib ou multiprocessing.

Essayez ces prompts

Vérification de base des ressources
Exécuter get-available-resources pour détecter le matériel disponible pour cette tâche.
Chargement conscient de la mémoire
Vérifier la mémoire disponible avec get-available-resources, puis recommander s'il faut utiliser pandas ou Dask pour ce fichier CSV de 20 Go.
Sélection du backend GPU
Exécuter get-available-resources et me dire quel appareil PyTorch utiliser selon le GPU détecté.
Configuration du traitement parallèle
Utiliser get-available-resources pour déterminer n_jobs optimal pour ce grid search joblib Parallel à travers 1000 combinaisons de paramètres.

Bonnes pratiques

  • Exécuter la détection de ressources au début des projets avant de prendre des décisions architecturales concernant le chargement de données et la parallélisation.
  • Réexécuter la compétence lorsque les conditions du système changent significativement ou avant des tâches computationnelles majeures.
  • Conserver le fichier .claude_resources.json généré dans les répertoires de projet pour documenter les décisions conscientes du matériel.

Éviter

  • Supposer que les ressources détectées restent constantes tout au long de workflows longs sans re-vérification.
  • Ignorer les recommandations de stratégie de mémoire et tenter de charger des ensembles de données plus grands que la RAM disponible.
  • Utiliser les nombres de workers suggérés sans tenir compte d'autres processus consommant des ressources CPU.

Foire aux questions

Quels systèmes d'exploitation cette compétence supporte-t-elle ?
macOS (incluant Apple Silicon M1-M4), Linux (GPU NVIDIA et AMD), et Windows (GPU NVIDIA).
Quelles dépendances sont requises ?
Le package Python psutil est requis. La détection GPU nécessite nvidia-smi, rocm-smi ou system_profiler dans le PATH.
Où le fichier de sortie est-il enregistré ?
Par défaut, .claude_resources.json est créé dans le répertoire de travail actuel. Utiliser le flag -o pour un chemin personnalisé.
Quelle est la précision des lectures de mémoire ?
Les lectures de mémoire sont des instantanés ponctuels. La mémoire disponible change constamment avec l'activité du système.
Que se passe-t-il si la détection GPU échoue ?
La compétence gère les utilitaires GPU manquants avec grâce et rapporte aucun GPU disponible avec des recommandations CPU-only.
Puis-je modifier les seuils de recommandation ?
Oui, modifier la fonction generate_recommendations dans detect_resources.py pour personnaliser les seuils et stratégies.

Détails du développeur

Structure de fichiers