latchbio-integration
Crie pipelines de bioinformática com Latch SDK
Auch verfügbar von: davila7
Implante fluxos de trabalho de bioinformática prontos para produção sem gerenciar infraestrutura. Crie pipelines serverless usando decoradores Python com containerização automática, suporte a GPU e armazenamento em nuvem integrado.
Die Skill-ZIP herunterladen
In Claude hochladen
Gehe zu Einstellungen → Fähigkeiten → Skills → Skill hochladen
Einschalten und loslegen
Teste es
Verwendung von "latchbio-integration". Crie um fluxo de trabalho Latch para previsão de estrutura de proteínas
Erwartetes Ergebnis:
- Use o decorador @large_gpu_task com GPU nvidia-tesla-v100
- Importe alphafold do módulo latch.verified
- Configure a entrada via LatchFile para sequência FASTA
- Defina o diretório de saída com LatchDir para resultados PDB
- A plataforma gerencia automaticamente a containerização Docker
- Monitore a execução via dashboard Latch
Verwendung von "latchbio-integration". Como configuro uma análise de expressão diferencial DESeq2?
Erwartetes Ergebnis:
- Importe deseq2 do módulo latch.verified
- Defina parâmetros de entrada para matriz de contagem e metadados de amostra
- Configure o diretório de saída para resultados e gráficos
- A plataforma provisiona recursos de computação apropriados
- Acesse resultados através de caminhos de saída registrados
Verwendung von "latchbio-integration". Configurar recursos GPU para AlphaFold no Latch
Erwartetes Ergebnis:
- Use o decorador @large_gpu_task para cargas de trabalho GPU
- Defina gpu_type para nvidia-tesla-v100 ou nvidia-tesla-a100
- Configure requisitos de memória baseados no tamanho da proteína
- A plataforma gerencia o agendamento GPU automaticamente
- Monitore a utilização GPU durante a execução
Sicherheitsaudit
SicherDocumentation-only skill containing only markdown files (.md) and JSON metadata. No executable source code present. All 285 static findings are false positives caused by the scanner misinterpreting markdown code block syntax and documentation examples as executable code. The 'backtick execution' findings are markdown code delimiters, 'weak cryptographic algorithm' findings are misinterpreted Python decorators, and 'credential access' findings demonstrate legitimate Latch SDK APIs. This is standard bioinformatics documentation teaching users how to use a cloud-based workflow platform.
Risikofaktoren
⚙️ Externe Befehle (6)
⚡ Enthält Skripte (2)
🌐 Netzwerkzugriff (2)
🔑 Umgebungsvariablen (2)
Qualitätsbewertung
Was du bauen kannst
Implante pipelines de análise RNA-seq
Construa fluxos de trabalho completos de transcriptômica desde controle de qualidade até análise de expressão diferencial.
Execute previsão de estrutura de proteínas
Execute trabalhos AlphaFold ou ColabFold com alocação automática de recursos GPU e armazenamento em nuvem.
Integre ferramentas de bioinformática verificadas
Combine fluxos de trabalho pré-construídos com etapas personalizadas para pipelines de análise especializados.
Probiere diese Prompts
Crie um fluxo de trabalho Latch que processa arquivos usando o decorador @small_task e retorna um resultado LatchFile.
Configure uma tarefa Latch para usar uma GPU A100 para execução de modelo de aprendizado profundo com especificações de recursos personalizadas.
Mostre como registrar um pipeline Nextflow ou Snakemake existente na plataforma Latch.
Crie um pipeline RNA-seq completo com controle de qualidade, alinhamento e quantificação usando decoradores Latch.
Bewährte Verfahren
- Comece com decoradores de tarefa padrão (@small_task, @large_task) e dimensione recursos apenas quando o perfil mostrar necessidade
- Use anotações de tipo e docstrings para todos os parâmetros para gerar automaticamente interfaces de fluxo de trabalho
- Teste fluxos de trabalho localmente com Docker antes de registrar na plataforma
Vermeiden
- Evite provisionar recursos em excesso - tarefas GPU custam significativamente mais que tarefas CPU
- Não use configuração dinâmica de recursos em tempo de execução - decoradores devem ser estáticos
- Evite misturar múltiplos frameworks de fluxo de trabalho em um único pipeline sem separação clara