lamindb
Gérer les données biologiques avec LaminDB
Également disponible depuis: davila7
La recherche biologique génère des ensembles de données complexes difficiles à suivre, interroger et reproduire. LaminDB fournit un cadre unifié pour gérer les données biologiques avec une traçabilité automatique de la lignée, des annotations basées sur des ontologies et une intégration transparente avec les gestionnaires de workflows.
Télécharger le ZIP du skill
Importer dans Claude
Allez dans Paramètres → Capacités → Skills → Importer un skill
Activez et commencez à utiliser
Tester
Utilisation de "lamindb". Comment suivre mon analyse de notebook avec LaminDB?
Résultat attendu:
- Utilisez ln.track() au début de votre notebook pour commencer la capture de lignée
- Importez vos données et effectuez l'analyse normalement
- Appelez ln.finish() pour terminer le suivi une fois terminé
- Affichez la lignée avec artifact.view_lineage() pour voir la provenance des données
Utilisation de "lamindb". Pouvez-vous m'aider à valider mes métadonnées expérimentales?
Résultat attendu:
- Définissez un schéma avec les colonnes et types de données requis
- Créez un DataFrameCurator ou AnnDataCurator avec votre schéma
- Utilisez curator.validate() pour vérifier l'intégrité des données
- Utilisez .cat.standardize() pour corriger les fautes de frappe et mapper les synonymes
Utilisation de "lamindb". Comment connecter LaminDB à mon stockage cloud?
Résultat attendu:
- Installez les extras: pip install 'lamindb[aws]' ou 'lamindb[gcp]'
- Configurez le stockage: lamin init --storage s3://votre-bucket
- Définissez les identifiants via des variables d'environnement ou des fichiers de configuration
- LaminDB gère automatiquement la mise en cache et la synchronisation
Audit de sécurité
SûrThis is a pure documentation skill containing only markdown files with code examples for LaminDB biological data management. All 607 static findings are false positives. The analyzer incorrectly flagged markdown code formatting (backticks, code blocks), documentation about cloud storage configuration (AWS, GCP credentials), and library usage patterns (ln.Artifact) as security issues. No executable code, scripts, credential harvesting, or malicious patterns exist.
Facteurs de risque
⚙️ Commandes externes (3)
📁 Accès au système de fichiers (2)
🌐 Accès réseau (2)
🔑 Variables d’environnement (2)
Score de qualité
Ce que vous pouvez construire
Annoter des données scRNA-seq
Valider et standardiser les annotations de types cellulaires à l'aide de vocabulaires contrôlés de Cell Ontology
Construire des data lakehouses
Créer des interfaces de requête unifiées sur plusieurs ensembles de données biologiques avec versionnement automatique
Suivre la lignée des modèles
Lier les artefacts de données d'entraînement aux expériences MLflow ou W&B pour une reproductibilité complète
Essayez ces prompts
Aidez-moi à configurer LaminDB localement. Je veux l'installer, m'authentifier et initialiser une instance locale pour gérer mes ensembles de données monocellulaires.
J'ai des données scRNA-seq avec des étiquettes de types cellulaires. Montrez-moi comment valider et standardiser ces étiquettes à l'aide de Cell Ontology via Bionty.
J'exécute des pipelines Nextflow pour l'analyse RNA-seq en bulk. Montrez-moi comment intégrer LaminDB pour suivre quel code a produit quels fichiers de sortie.
J'ai des centaines de fichiers Parquet organisés par expérience et lot. Montrez-moi comment interroger tous les artefacts du projet X avec tissu=PBMC et condition=traité sans charger tous les fichiers.
Bonnes pratiques
- Commencez chaque notebook d'analyse avec ln.track() et terminez avec ln.finish() pour une capture automatique de lignée
- Définissez des schémas et validez les données tôt pour détecter les problèmes avant une analyse approfondie
- Utilisez des clés d'artefacts hiérarchiques comme 'projet/experience/lot/fichier.h5ad' pour l'organisation
Éviter
- Créer de nouvelles clés d'artefacts pour les versions modifiées au lieu d'utiliser le versionnement intégré
- Charger de grands ensembles de données sans filtrer d'abord - interrogez d'abord les métadonnées pour réduire les E/S
- Sauter la standardisation des ontologies qui conduit à des requêtes incohérentes entre des termes similaires