프로덕션 준비가 된 Airflow DAG 를 만들려면 오퍼레이터, 센서, 오류 처리 패턴을 이해해야 합니다. 이 스킬은 데이터 파이프라인 오케스트레이션을 위한 검증된 템플릿과 모범 사례를 제공합니다.
Télécharger le ZIP du skill
Importer dans Claude
Allez dans Paramètres → Capacités → Skills → Importer un skill
Activez et commencez à utiliser
Tester
Utilisation de "airflow-dag-patterns". 추출, 변환, 적재 작업을 포함하는 데일리 ETL DAG 생성
Résultat attendu:
- 스케줄 '0 6 * * *' (매일 오전 6 시) 으로 DAG 생성됨
- 3 개의 PythonOperator 작업: extract_data, transform_data, load_data
- 작업 종속성: extract >> transform >> load
- 재시도 구성: 5 분 지수 백오프로 3 회 재시도
- 작업 실패 시 이메일 알림 구성됨
Utilisation de "airflow-dag-patterns". 처리 전 S3 파일을 대기하는 센서 추가
Résultat attendu:
- 2 시간 타임아웃과 5 분 poke 간격으로 S3KeySensor 추가됨
- 워커 슬롯 확보를 위해 mode='reschedule'로 센서 구성됨
- 센서의 하위 종속성으로 처리 작업 설정됨
- 이제 DAG 는 실행 전 파일 가용성을 대기함
Audit de sécurité
SûrStatic analysis detected 41 patterns but all are false positives. Backtick characters are markdown formatting for code blocks, not shell execution. globals() usage is standard Airflow pattern for dynamic DAG generation. URLs are documentation references. This is educational documentation with no executable security risks.
Score de qualité
Ce que vous pouvez construire
ETL 파이프라인을 구축하는 데이터 엔지니어링 팀
적절한 오류 처리 및 모니터링을 갖춘 소스에서 데이터 추출, 변환, 웨어하우스 적재를 위한 스케줄링된 데이터 파이프라인을 생성합니다.
리포트 생성을 오케스트레이션하는 분석 팀
데이터 가용성 및 상위 처리 완료에 종속적인 자동화된 리포트 생성 작업을 스케줄링합니다.
정기적으로 모델을 학습하는 ML 엔지니어
데이터 검증, 모델 학습, 배포 단계를 포함한 머신러닝 학습 파이프라인을 오케스트레이션합니다.
Essayez ces prompts
CSV 파일에서 데이터를 추출하여 변환하고 데이터베이스에 적재하는 데일리 오전 6 시에 실행되는 Airflow DAG 를 생성하세요. 재시도를 포함한 기본 오류 처리를 포함하세요.
서로 다른 데이터 소스를 처리하기 위한 구성 목록에서 여러 개의 유사한 DAG 를 생성하세요. 각 DAG 는 동일한 구조를 가지지만 서로 다른 스케줄과 소스 경로를 가져야 합니다.
데이터 품질 지표를 확인하고 품질 점수에 따라 다른 처리 경로로 분기하는 DAG 를 생성하세요. 분기 후 적절한 조인 로직을 포함하세요.
S3 에 파일 도착을 대기하고, 다른 DAG 완료를 기다리며, 처리 전 API 헬스 엔드포인트를 모니터링하는 DAG 를 구축하세요. 센서에 reschedule 모드를 사용하세요.
Bonnes pratiques
- 더 깔끔한 코드와 작업 간 자동 XCom 전달을 위해 TaskFlow API 를 사용하세요
- 모든 작업이 멱등성을 가지도록 설계하여 재시도 시 데이터 중복이 발생하지 않도록 하세요
- 작업에 적절한 타임아웃을 설정하고 센서에는 reschedule 모드를 사용하여 워커 리소스를 확보하세요
Éviter
- depends_on_past=True 사용으로 불필요한 병목 현상이 발생하고 병렬 실행이 차단됨
- 실행 날짜를 위한 {{ ds }} 와 같은 Airflow 매크로 대신 날짜나 값을 하드코딩함
- 별도 모듈에서 임포트하는 대신 DAG 파일에 무거운 비즈니스 로직을 직접 배치함