Compétences latchbio-integration
🧬

latchbio-integration

Sûr ⚙️ Commandes externes⚡ Contient des scripts🌐 Accès réseau🔑 Variables d’environnement

Construire des pipelines bioinformatiques avec Latch SDK

Également disponible depuis: davila7

Déployez des workflows bioinformatiques prêts pour la production sans gérer l'infrastructure. Créez des pipelines serverless utilisant des décorateurs Python avec conteneurisation automatique, support GPU, et stockage cloud intégré.

Prend en charge: Claude Codex Code(CC)
📊 70 Adéquat
1

Télécharger le ZIP du skill

2

Importer dans Claude

Allez dans Paramètres → Capacités → Skills → Importer un skill

3

Activez et commencez à utiliser

Tester

Utilisation de "latchbio-integration". Créer un workflow Latch pour la prédiction de structure protéique

Résultat attendu:

  • Utiliser le décorateur @large_gpu_task avec GPU nvidia-tesla-v100
  • Importer alphafold depuis le module latch.verified
  • Configurer l'entrée via LatchFile pour la séquence FASTA
  • Définir le répertoire de sortie avec LatchDir pour les résultats PDB
  • La plateforme gère automatiquement la conteneurisation Docker
  • Surveiller l'exécution via le tableau de bord Latch

Utilisation de "latchbio-integration". Comment configurer une analyse d'expression différentielle DESeq2?

Résultat attendu:

  • Importer deseq2 depuis le module latch.verified
  • Définir les paramètres d'entrée pour la matrice de comptage et les métadonnées d'échantillon
  • Configurer le répertoire de sortie pour les résultats et graphiques
  • La plateforme provisionne les ressources de calcul appropriées
  • Accéder aux résultats via les chemins de sortie enregistrés

Utilisation de "latchbio-integration". Configurer les ressources GPU pour AlphaFold sur Latch

Résultat attendu:

  • Utiliser le décorateur @large_gpu_task pour les charges GPU
  • Définir gpu_type sur nvidia-tesla-v100 ou nvidia-tesla-a100
  • Configurer les besoins en mémoire selon la taille de la protéine
  • La plateforme gère automatiquement l'ordonnancement GPU
  • Surveiller l'utilisation GPU pendant l'exécution

Audit de sécurité

Sûr
v4 • 1/17/2026

Documentation-only skill containing only markdown files (.md) and JSON metadata. No executable source code present. All 285 static findings are false positives caused by the scanner misinterpreting markdown code block syntax and documentation examples as executable code. The 'backtick execution' findings are markdown code delimiters, 'weak cryptographic algorithm' findings are misinterpreted Python decorators, and 'credential access' findings demonstrate legitimate Latch SDK APIs. This is standard bioinformatics documentation teaching users how to use a cloud-based workflow platform.

7
Fichiers analysés
3,456
Lignes analysées
4
résultats
4
Total des audits

Score de qualité

45
Architecture
100
Maintenabilité
87
Contenu
21
Communauté
100
Sécurité
83
Conformité aux spécifications

Ce que vous pouvez construire

Déployer des pipelines d'analyse RNA-seq

Construisez des workflows de transcriptomique complets allant du contrôle qualité à l'analyse d'expression différentielle.

Exécuter la prédiction de structure protéique

Lancez des tâches AlphaFold ou ColabFold avec allocation automatique de ressources GPU et stockage cloud.

Intégrer des outils bioinformatiques vérifiés

Combinez des workflows pré-construits avec des étapes personnalisées pour des pipelines d'analyse spécialisés.

Essayez ces prompts

Créer un workflow de base
Créez un workflow Latch qui traite des fichiers utilisant le décorateur @small_task et retourne un résultat LatchFile.
Configurer les ressources GPU
Configurez une tâche Latch pour utiliser un GPU A100 pour l'exécution de modèles d'apprentissage profond avec des spécifications de ressources personnalisées.
Importer un pipeline existant
Montrez comment enregistrer un pipeline Nextflow ou Snakemake existant sur la plateforme Latch.
Construire un pipeline multi-étapes
Créez un pipeline RNA-seq complet avec contrôle qualité, alignement et quantification en utilisant les décorateurs Latch.

Bonnes pratiques

  • Commencez avec les décorateurs de tâche standard (@small_task, @large_task) et augmentez les ressources uniquement lorsque le profilage montre un besoin
  • Utilisez des annotations de type et des docstrings pour tous les paramètres afin de générer automatiquement les interfaces de workflow
  • Testez les workflows localement avec Docker avant de les enregistrer sur la plateforme

Éviter

  • Évitez le sur-provisionnement des ressources - les tâches GPU coûtent significativement plus que les tâches CPU
  • N'utilisez pas de configuration dynamique des ressources à l'exécution - les décorateurs doivent être statiques
  • Évitez de mélanger plusieurs frameworks de workflow dans un seul pipeline sans séparation claire

Foire aux questions

Quels outils bioinformatiques sont disponibles sous forme de workflows vérifiés?
Latch fournit des workflows vérifiés pour RNA-seq bulk, DESeq2, AlphaFold, ColabFold, MAFFT, Trim Galore, ArchR, scVelo, CRISPResso2, et la phylogénétique.
Comment configurer les ressources GPU pour mon workflow?
Utilisez les décorateurs @small_gpu_task ou @large_gpu_task, ou spécifiez les paramètres gpu et gpu_type dans @custom_task pour un contrôle précis.
Puis-je importer des pipelines Nextflow ou Snakemake existants?
Oui, utilisez les commandes latch register --nextflow ou latch register --snakemake pour importer des pipelines existants avec conteneurisation automatique.
Comment LatchFile diffère-t-il des chemins de fichiers locaux?
LatchFile est une référence de stockage cloud. Le SDK télécharge automatiquement les fichiers vers les chemins locaux pendant l'exécution et téléverse les résultats vers le stockage cloud.
Quelles ressources de calcul sont disponibles?
CPU jusqu'à 96 cœurs, mémoire jusqu'à 768 Go, options GPU incluant K80, V100 et A100, avec stockage éphémère configurable.
Comment organiser les données expérimentales dans le Registry?
Créez des Projects contenant des Tables avec Records. Utilisez des types de colonnes comme string, number, file, link, et enum pour structurer votre modèle de données.