Fähigkeiten latchbio-integration
🧬

latchbio-integration

Sicher ⚙️ Externe Befehle⚡ Enthält Skripte🌐 Netzwerkzugriff🔑 Umgebungsvariablen

Bioinformatik-Pipelines mit Latch SDK erstellen

Auch verfügbar von: davila7

Produktionsreife Bioinformatik-Workflows bereitstellen, ohne Infrastruktur zu verwalten. Erstellen Sie serverlose Pipelines mit Python-Dekoratoren mit automatischer Containerisierung, GPU-Unterstützung und integriertem Cloud-Speicher.

Unterstützt: Claude Codex Code(CC)
📊 70 Angemessen
1

Die Skill-ZIP herunterladen

2

In Claude hochladen

Gehe zu Einstellungen → Fähigkeiten → Skills → Skill hochladen

3

Einschalten und loslegen

Teste es

Verwendung von "latchbio-integration". Erstellen Sie einen Latch-Workflow für Proteinstrukturvorhersage

Erwartetes Ergebnis:

  • Verwenden Sie @large_gpu_task Dekorator mit nvidia-tesla-v100 GPU
  • Importieren Sie alphaflow aus dem latch.verified Modul
  • Konfigurieren Sie die Eingabe über LatchFile für FASTA-Sequenz
  • Legen Sie das Ausgabeverzeichnis mit LatchDir für PDB-Ergebnisse fest
  • Plattform übernimmt automatisch die Docker-Containerisierung
  • Überwachen Sie die Ausführung über das Latch-Dashboard

Verwendung von "latchbio-integration". Wie richte ich eine DESeq2 differentielle Expressionsanalyse ein?

Erwartetes Ergebnis:

  • Importieren Sie deseq2 aus dem latch.verified Modul
  • Definieren Sie Eingabeparameter für Count-Matrix und Sample-Metadaten
  • Konfigurieren Sie das Ausgabeverzeichnis für Ergebnisse und Plots
  • Plattform stellt geeignete Rechenressourcen bereit
  • Greifen Sie auf Ergebnisse über registrierte Ausgabepfade zu

Verwendung von "latchbio-integration". GPU-Ressourcen für AlphaFold auf Latch konfigurieren

Erwartetes Ergebnis:

  • Verwenden Sie @large_gpu_task Dekorator für GPU-Workloads
  • Setzen Sie gpu_type auf nvidia-tesla-v100 oder nvidia-tesla-a100
  • Konfigurieren Sie Speicheranforderungen basierend auf der Proteingröße
  • Plattform übernimmt GPU-Scheduling automatisch
  • Überwachen Sie die GPU-Auslastung während der Ausführung

Sicherheitsaudit

Sicher
v4 • 1/17/2026

Documentation-only skill containing only markdown files (.md) and JSON metadata. No executable source code present. All 285 static findings are false positives caused by the scanner misinterpreting markdown code block syntax and documentation examples as executable code. The 'backtick execution' findings are markdown code delimiters, 'weak cryptographic algorithm' findings are misinterpreted Python decorators, and 'credential access' findings demonstrate legitimate Latch SDK APIs. This is standard bioinformatics documentation teaching users how to use a cloud-based workflow platform.

7
Gescannte Dateien
3,456
Analysierte Zeilen
4
befunde
4
Gesamtzahl Audits
Auditiert von: claude Audit-Verlauf anzeigen →

Qualitätsbewertung

45
Architektur
100
Wartbarkeit
87
Inhalt
21
Community
100
Sicherheit
83
Spezifikationskonformität

Was du bauen kannst

RNA-seq-Analyse-Pipelines bereitstellen

Erstellen Sie vollständige Transkriptomik-Workflows von der Qualitätskontrolle bis zur differentiellen Expressionsanalyse.

Proteinstrukturvorhersage ausführen

Führen Sie AlphaFold- oder ColabFold-Jobs mit automatischer GPU-Ressourcenzuweisung und Cloud-Speicher aus.

Verifizierte Bioinformatik-Tools integrieren

Kombinieren Sie vorgefertigte Workflows mit benutzerdefinierten Schritten für spezialisierte Analyse-Pipelines.

Probiere diese Prompts

Grundworkflow erstellen
Erstellen Sie einen Latch-Workflow, der Dateien mit dem @small_task Dekorator verarbeitet und ein LatchFile-Ergebnis zurückgibt.
GPU-Ressourcen konfigurieren
Konfigurieren Sie einen Latch-Task für die Verwendung einer A100 GPU für Deep-Learning-Modellausführung mit benutzerdefinierten Ressourcenspezifikationen.
Bestehende Pipeline importieren
Zeigen Sie, wie Sie eine bestehende Nextflow- oder Snakemake-Pipeline auf der Latch-Plattform registrieren.
Mehrstufige Pipeline erstellen
Erstellen Sie eine vollständige RNA-seq-Pipeline mit Qualitätskontrolle, Alignment und Quantifizierungs-Tasks mit Latch-Dekoratoren.

Bewährte Verfahren

  • Beginnen Sie mit Standard-Task-Dekoratoren (@small_task, @large_task) und skalieren Sie Ressourcen nur, wenn die Profilerstellung dies erfordert
  • Verwenden Sie Type-Annotations und Docstrings für alle Parameter zur automatischen Generierung von Workflow-Oberflächen
  • Testen Sie Workflows lokal mit Docker, bevor Sie sie auf der Plattform registrieren

Vermeiden

  • Vermeiden Sie Überbereitstellung von Ressourcen - GPU-Tasks kosten deutlich mehr als CPU-Tasks
  • Verwenden Sie keine dynamische Ressourcenkonfiguration zur Laufzeit - Dekoratoren müssen statisch sein
  • Vermeiden Sie das Mischen mehrerer Workflow-Frameworks in einer einzelnen Pipeline ohne klare Trennung

Häufig gestellte Fragen

Welche Bioinformatik-Tools sind als verifizierte Workflows verfügbar?
Latch bietet verifizierte Workflows für Bulk-RNA-seq, DESeq2, AlphaFold, ColabFold, MAFFT, Trim Galore, ArchR, scVelo, CRISPResso2 und Phylogenetik.
Wie konfiguriere ich GPU-Ressourcen für meinen Workflow?
Verwenden Sie @small_gpu_task oder @large_gpu_task Dekoratoren, oder geben Sie gpu- und gpu_type-Parameter in @custom_task für präzise Kontrolle an.
Kann ich bestehende Nextflow- oder Snakemake-Pipelines importieren?
Ja, verwenden Sie die Befehle latch register --nextflow oder latch register --snakemake, um bestehende Pipelines mit automatischer Containerisierung zu importieren.
Wie unterscheidet sich LatchFile von lokalen Dateipfaden?
LatchFile ist eine Cloud-Speicherreferenz. Das SDK lädt Dateien automatisch auf lokale Pfade während der Ausführung herunter und lädt Ergebnisse zurück in den Cloud-Speicher.
Welche Rechenressourcen sind verfügbar?
CPU bis zu 96 Kernen, Speicher bis zu 768 GB, GPU-Optionen umfassen K80, V100 und A100, mit konfigurierbarem flüchtigem Speicher.
Wie organisiere ich experimentelle Daten im Registry?
Erstellen Sie Projekte, die Tabellen mit Datensätzen enthalten. Verwenden Sie Spaltentypen wie Zeichenfolge, Zahl, Datei, Link und Enum, um Ihr Datenmodell zu strukturieren.