Compétences python-executor
📦

python-executor

Risque moyen ⚙️ Commandes externes🌐 Accès réseau

Exécuter du code Python dans un environnement isolé

Également disponible depuis: inference-sh,inference-sh-9,skillssh

L'exécution de code Python en local nécessite de configurer des environnements et de gérer les dépendances. Cette compétence fournit un accès instantané à un environnement Python préconfiguré avec plus de 100 bibliothèques prêtes à l'emploi.

Prend en charge: Claude Codex Code(CC)
⚠️ 64 Médiocre
1

Télécharger le ZIP du skill

2

Importer dans Claude

Allez dans Paramètres → Capacités → Skills → Importer un skill

3

Activez et commencez à utiliser

Tester

Utilisation de "python-executor". Execute: import pandas as pd; df = pd.DataFrame({'A': [1, 2], 'B': [3, 4]}); print(df.mean())

Résultat attendu:

Code exécuté avec succès. Sortie : A 1.5
B 3.5
dtype: float64

Utilisation de "python-executor". Create a bar chart from data and save to outputs/chart.png

Résultat attendu:

Code exécuté avec succès. Sortie : Graphique enregistré !
Fichiers joints : chart.png (image PNG, 800x600)

Audit de sécurité

Risque moyen
v1 • 3/20/2026

Static analyzer flagged 69 patterns in SKILL.md documentation file, but all are false positives. The 'backtick execution' patterns are markdown code block formatting, not shell execution. Network patterns are documentation URLs and example snippets. The skill legitimately uses the infsh CLI to send Python code to a remote sandboxed execution service (inference.sh). Risk is medium due to remote code execution capability, but execution occurs in an isolated subprocess on their infrastructure with timeout limits (1-300s).

1
Fichiers analysés
186
Lignes analysées
3
résultats
1
Total des audits
Problèmes à risque moyen (1)
Remote Code Execution Service
This skill enables arbitrary Python code execution via a remote service (inference.sh). While the execution is sandboxed, users should be aware that code runs on external infrastructure.

Facteurs de risque

⚙️ Commandes externes (1)
🌐 Accès réseau (1)
Audité par: claude

Score de qualité

38
Architecture
100
Maintenabilité
87
Contenu
41
Communauté
60
Sécurité
83
Conformité aux spécifications

Ce que vous pouvez construire

Pipeline d'analyse de données

Traiter et visualiser des datasets avec Pandas et Matplotlib sans configuration d'environnement local.

Web scraping automatisé

Extraire des données de sites web en utilisant requests, BeautifulSoup ou des outils d'automatisation de navigateur.

Traitement de médias

Créer et manipuler des images, vidéos et modèles 3D en utilisant des bibliothèques Python spécialisées.

Essayez ces prompts

Exécution Python de base
Run this Python code: print('Hello World')
Analyse de données avec Pandas
Create a DataFrame with columns 'name' and 'sales', then calculate the average sales and display a bar chart.
Tâche de web scraping
Scrape the title and all links from https://example.com using requests and BeautifulSoup, then return the results as JSON.
Pipeline de traitement d'images
Load an image, apply a grayscale filter, resize to 800x600, and save the result. Then create a thumbnail version at 150x150 pixels.

Bonnes pratiques

  • Toujours enregistrer les fichiers de sortie dans le répertoire outputs/ pour garantir qu'ils sont retournés dans la réponse
  • Définir des valeurs de délai d'attente appropriées pour les opérations de longue durée comme le traitement vidéo ou le web scraping
  • Utiliser des méthodes non interactives comme plt.savefig() au lieu de plt.show() pour les visualisations

Éviter

  • Ne pas tenter d'opérations interactives comme plt.show() ou input() - l'environnement est non interactif
  • Éviter de compter sur les bibliothèques GPU - l'environnement est CPU uniquement
  • Ne pas s'attendre à un état persistant entre des exécutions de code séparées - chaque exécution est isolée

Foire aux questions

Quelles bibliothèques sont disponibles ?
Plus de 100 bibliothèques sont préinstallées dont NumPy, Pandas, Matplotlib, requests, BeautifulSoup, Selenium, Playwright, Pillow, OpenCV, MoviePy, trimesh, et bien d'autres pour la data science, le web scraping et le traitement de médias.
Comment récupérer les fichiers de sortie ?
Enregistrez tous les fichiers que vous souhaitez récupérer dans le répertoire outputs/. Les fichiers enregistrés là sont automatiquement détectés et retournés avec les résultats d'exécution.
Puis-je installer des packages supplémentaires ?
Non, seules les bibliothèques préinstallées sont disponibles. Si vous avez besoin d'un package spécifique, consultez la documentation ou contactez l'auteur de la compétence.
Quelle est la durée d'exécution maximale ?
Le délai d'attente peut être défini entre 1 et 300 secondes. La valeur par défaut est de 30 secondes. Pour les opérations plus longues comme le traitement vidéo, utilisez le paramètre timeout.
Votre code est-il sécurisé ?
Le code s'exécute dans un sous-processus isolé sur l'infrastructure inference.sh. Cependant, évitez d'envoyer des données sensibles comme des clés API ou des identifiants dans votre code.
Puis-je l'utiliser pour le machine learning ?
Cet environnement est CPU uniquement et ne convient pas à l'entraînement de modèles ML. Utilisez des compétences IA dédiées pour les tâches de machine learning. L'inférence de base avec des bibliothèques compatibles CPU peut fonctionner pour les petits modèles.

Détails du développeur

Structure de fichiers

📄 SKILL.md