creating-bauplan-pipelines
Erstellen Sie bauplan-Datenpipelines mit SQL- und Python-Modellen
Das Erstellen von Datenpipelines von Grund auf erfordert Verständnis für DAG-Architektur, Materialisierungsstrategien und Projektstruktur. Diese Skill leitet Sie durch das Einrichten von bauplan-Projekten mit ordnungsgemäßer Branch-Sicherheit, SQL-First-Node-Mustern und Python-Transformationsmodellen.
Descargar el ZIP de la skill
Subir en Claude
Ve a Configuración → Capacidades → Skills → Subir skill
Activa y empieza a usar
Pruébalo
Usando "creating-bauplan-pipelines". Erstelle ein neues bauplan-Pipeline-Projekt mit einem Python-Modell, das tägliche Verkäufe aggregiert
Resultado esperado:
- Ihre Pipeline wird in einem neuen Projektordner erstellt mit:
- - bauplan_project.yml mit einer eindeutigen UUID
- - models.py mit dem daily_sales-Aggregationsmodell
- - Entsprechenden Decorators für Materialisierung und Python-Version
- - Columns-Spezifikation für Ausgabevalidierung
Usando "creating-bauplan-pipelines". Schreibe ein SQL-Modell, das aus raw_orders liest und cleaned_orders mit ausgewählten Spalten ausgibt
Resultado esperado:
- SQL-Modell erstellt mit:
- - Dateiname bestimmt Ausgabetabellennamen (cleaned_orders.sql → cleaned_orders)
- - FROM-Klausel liest aus raw_orders-Lakehouse-Tabelle
- - Materialisierungsstrategie-Kommentar für REPLACE
- - Best-Practice-Anleitung für First-Node-Verwendung
Usando "creating-bauplan-pipelines". Hilf mir, Branch-Sicherheit einzurichten und meinen ersten Pipeline-Dry-Run auszuführen
Resultado esperado:
- Branch-Sicherheits-Checkliste:
- - Benutzernamen abrufen mit 'bauplan info'
- - Dev-Branch erstellen: bauplan branch create <username>.<branch_name>
- - Dev-Branch auschecken, bevor Pipelines ausgeführt werden
- - Dry-Run-Befehl: bauplan run --dry-run
Auditoría de seguridad
Riesgo bajoThis is a documentation-only skill containing no executable code. All 165 static findings are false positives: markdown backticks were misidentified as shell execution, version numbers as weak crypto, and CLI documentation as reconnaissance. The skill guides users through bauplan CLI usage safely.
Factores de riesgo
⚡ Contiene scripts (1)
⚙️ Comandos externos (135)
🌐 Acceso a red (2)
Puntuación de calidad
Lo que puedes crear
Neue Pipeline-Projekte einrichten
Initialisieren neuer bauplan-Projekte mit ordnungsgemäßer DAG-Struktur und SQL/Python-Modellen für Datentransformationen
Transformationsmodelle erstellen
Schreiben validierter Transformationsmodelle mit Spaltenspezifikationen und Datenqualitätserwartungen
Feature-Pipelines erstellen
Erstellen mehrstufiger Pipelines, die Daten für Feature Engineering im maschinellen Lernen aggregieren
Prueba estos prompts
Hilf mir, ein neues bauplan-Pipeline-Projekt zu erstellen. Ich möchte aus den Tabellen taxi_fhvhv und taxi_zones im Lakehouse lesen und eine daily_summary-Ausgabetabelle erstellen.
Schreibe ein Python-Modell, das Trips mit Zoneninformationen verknüpft. Verwende I/O-Pushdown mit columns- und filter-Parametern. Füge Ausgabespalten-Validierung hinzu.
Erstelle ein Python-Modell, das mehrere Eingabetabellen verarbeitet. Zeige, wie man mehrere bauplan.Model()-Parameter für eine Join-Transformation spezifiziert.
Füge Datenqualitätserwartungen zu meiner Pipeline hinzu. Ich benötige Prüfungen für keine Null-Werte, eindeutige IDs und plausible Wertebereiche.
Mejores prácticas
- SQL-Modelle nur für First Nodes verwenden, die direkt aus Lakehouse-Tabellen lesen
- Immer den columns-Parameter in @bauplan.model() für Ausgabevalidierung angeben
- columns- und filter-Parameter in bauplan.Model() für I/O-Pushdown-Performance verwenden
Evitar
- SQL-Modelle für komplexe Transformationen über First Nodes hinaus verwenden
- Den columns-Parameter in @bauplan.model()-Deklarationen weglassen
- Pipelines auf dem Main-Branch statt auf einem Entwicklungs-Branch ausführen
Preguntas frecuentes
Erfordert diese Skill eine installierte bauplan CLI?
Welche Grenzen gibt es für die Pipeline-Komplexität?
Kann ich mit bestehenden Daten-Tools integrieren?
Sind meine Daten mit dieser Skill sicher?
Warum schlägt meine Pipeline beim Dry-Run fehl?
Wie ist das im Vergleich zu dbt?
Detalles del desarrollador
Estructura de archivos
📄 SKILL.md