data-quality-frameworks
Data-Quality-Pipelines mit Validierungs-Frameworks erstellen
Également disponible depuis: wshobson
Sorgen Sie für zuverlässige Datenpipelines mit umfassender Validierung unter Verwendung von Great Expectations, dbt-Tests und Datenverträgen. Reduzieren Sie Datenincidents und bauen Sie Vertrauen in Ihre Analysen mit produktionsreifen Qualitätsmustern auf.
Télécharger le ZIP du skill
Importer dans Claude
Allez dans Paramètres → Capacités → Skills → Importer un skill
Activez et commencez à utiliser
Tester
Utilisation de "data-quality-frameworks". Generate Great Expectations checkpoint for daily orders validation with Slack alerts
Résultat attendu:
- Checkpoint mit täglichem Validierungszeitplan konfiguriert
- Aktionen: Ergebnisse speichern, Data Docs aktualisieren, Slack bei Fehler senden
- Webhook-Integration unter Verwendung der Umgebungsvariable SLACK_WEBHOOK
- Ausführen mit: context.run_checkpoint(checkpoint_name='orders_checkpoint')
Utilisation de "data-quality-frameworks". Create data contract for user events with PII handling
Résultat attendu:
- Vertrag definiert user_id (UUID, erforderlich, unique)
- E-Mail-Feld als PII mit indirekter Klassifizierung gekennzeichnet
- Qualitätsprüfungen: row_count > 0, duplicate_count = 0
- SLA: 99,9% Verfügbarkeit, 1 Stunde Frische, 5 Minuten Latenz
Audit de sécurité
SûrThis is a documentation-only skill providing markdown guides for data quality frameworks. All static analysis findings are false positives: code blocks are markdown examples not executable code, URLs are documentation references, and pattern matches on SQL terms are not actual system calls.
Score de qualité
Ce que vous pouvez construire
Analytics Engineer erstellt dbt-Tests
Erstellen Sie umfassende Test-Suiten für Ihre dbt-Modelle mit Spaltenebenen-Validierungen, Beziehungsprüfungen und benutzerdefinierten Geschäftsregeln.
Data-Platform-Team etabliert Verträge
Definieren Sie Datenverträge zwischen Datenproduzenten und -konsumenten mit klaren Schemaerwartungen, Quality-SLAs und Ownership.
Data-Quality-Lead implementiert Great Expectations
Implementieren Sie Enterprise-Grade-Validierung mit Erwartungssuiten, Checkpoints und automatisierten Reporting-Dashboards.
Essayez ces prompts
Erstellen Sie eine Great-Expectations-Suite für eine orders-Tabelle mit order_id als Primärschlüssel. Fügen Sie Erwartungen für not null, unique und gültige order status-Werte hinzu (pending, processing, shipped, delivered, cancelled).
Generieren Sie dbt schema.yml Testkonfigurationen für eine customer dimension-Tabelle. Schließen Sie unique und not_null-Tests für customer_id, accepted_values für status und einen Beziehungstest zur Überprüfung der referentiellen Integrität ein.
Entwerfen Sie einen Datenvertrag für Order-Events, die von einer E-Commerce-Plattform gestreamt werden. Schließen Sie Schema-Felder mit Typen, PII-Klassifizierungen, Qualitätsprüfungen unter Verwendung von SodaCL-Syntax und SLA-Definitionen für Frische und Verfügbarkeit ein.
Schreiben Sie einen benutzerdefinierten dbt-Test, der die Konsistenz von Bestellgesamtbeträgen validiert: subtotal + tax + shipping muss gleich total_amount innerhalb einer Toleranz von 0,01 sein. Schließen Sie das vollständige Macro und ein Verwendungsbeispiel ein.
Bonnes pratiques
- Testen Sie früh in der Pipeline – validieren Sie Quelldaten vor Transformationen, um Probleme bei der Erfassung zu erkennen
- Konzentrieren Sie sich auf kritische Spalten – priorisieren Sie hochwirksame Felder gegenüber exhaustiver Abdeckung
- Dokumentieren Sie jede Erwartung mit klaren Beschreibungen, damit Teammitglieder die Geschäftsregel verstehen
Éviter
- Produktionspipelines ohne Fallback blockieren – haben Sie immer einen manuellen Override-Pfad für kritische Datenflüsse
- In Isolation testen – validieren Sie Beziehungen zwischen Tabellen, nicht nur einzelne Spalteneinschränkungen
- Schwellenwerte hartcodieren – verwenden Sie dynamische Baselines und statistische Bereiche, die sich an Datenwachstum anpassen
Foire aux questions
Was ist der Unterschied zwischen Great Expectations und dbt-Tests?
Wie gehe ich mit PII-Daten in Validierungsausgaben um?
Was sollte ich tun, wenn eine Datenqualitätsprüfung fehlschlägt?
Wie versioniere ich Datenverträge?
Kann ich Great Expectations in meiner CI/CD-Pipeline ausführen?
Welche Metriken sollte ich für Datenqualität verfolgen?
Détails du développeur
Auteur
sickn33Licence
MIT
Dépôt
https://github.com/sickn33/antigravity-awesome-skills/tree/main/skills/data-quality-frameworksRéf
main
Structure de fichiers