clickhouse-io
ClickHouse Analytics とクエリ最適化をマスターする
ClickHouse の列指向データベースで高性能な分析システムを構築しましょう。クエリ最適化、マテリアライズドビュー、リアルタイムデータパイプラインの実証済みのパターンを学べます。
Télécharger le ZIP du skill
Importer dans Claude
Allez dans Paramètres → Capacités → Skills → Importer un skill
Activez et commencez à utiliser
Tester
Utilisation de "clickhouse-io". date、market_id、volume、trades を持つ市場分析用テーブルを作成
Résultat attendu:
月単位のパーティション分割、date と market_id による適切な順序付け、最適な圧縮とクエリパフォーマンスのための適切なデータ型(Date、String、UInt64、UInt32)を持つ MergeTree テーブルを作成します。
Utilisation de "clickhouse-io". 大規模テーブルで volume 然後 date でフィルタリングするクエリを最適化
Résultat attendu:
インデックス付きカラム(date、market_id)を先にフィルタリングするように WHERE 句を並べ替え、パーセンタイル計算に quantile() の使用を提案し、一般的なフィルタパターンに適切なプロジェクションの追加を推奨します。
Utilisation de "clickhouse-io". 時間ごとのメトリクス用のリアルタイム集計を設定
Résultat attendu:
AggregateFunction カラムを持つ AggregatingMergeTree ターゲットテーブルを作成し、sumState/countState/uniqState 関数を含むマテリアライズドビューを定義し、sumMerge/countMerge/uniqMerge を使用するクエリパターンを提供します。
Audit de sécurité
SûrThis skill contains documentation and code examples for ClickHouse database usage. Static analyzer flagged 86 patterns that are all false positives: backticks in markdown denote SQL code blocks (not shell execution), environment variable references are configuration examples, and system table queries are legitimate ClickHouse monitoring features. No executable code or security risks present.
Score de qualité
Ce que vous pouvez construire
分析プラットフォームを構築するデータエンジニア
大量のイベントトラッキングとユーザー分析のために、スケーラブルなテーブルスキーマを設計し、効率的なデータ取り込みパイプラインを実装します。
クエリを最適化するバックエンド開発者
大規模データセットでのレイテンシを削減し、適切なインデックス戦略を実装するための ClickHouse 固有のクエリパターンを学びます。
リアルタイムダッシュボードを作成するアナリスト
マテリアライズドビューと事前集計パターンを使用して、数十億行のデータでサブ秒のダッシュボードクエリを実現します。
Essayez ces prompts
user_id、event_type、timestamp、properties のカラムを持つユーザーアクティビティイベントを保存するための ClickHouse テーブルスキーマを作成してください。重複排除に適したエンジンを使用し、月単位でパーティション分割してください。
1 億行以上で実行が遅いこの ClickHouse クエリをレビューしてください。WHERE 句、インデックス、集計関数の最適化を提案してください:[クエリを貼り付け]
イベントテーブルから 1 時間ごとのデイリーアクティブユーザーと総イベント数を事前集計するマテリアライズドビューを作成してください。ターゲットテーブルスキーマと MV 定義を含めてください。
PostgreSQL から ClickHouse へ 1 時間ごとにデータを同期する ETL パイプラインを設計してください。抽出、変換ロジック、エラーハンドリング付きのバッチ挿入パターンを含めてください。
Bonnes pratiques
- テーブルを時間(月または日)でパーティション分割するが、パフォーマンスに影響する過度なパーティションは避ける
- 主キーを最も頻繁にフィルタリングされるカラムで順序付け、カーディナリティが最も高いものを先に配置する
- 効率的なデータ取り込みのために個別の行挿入ではなくバッチ挿入を使用する
- サブ秒のクエリレイテンシを実現するために、事前集計メトリクスにマテリアライズドビューを活用する
Éviter
- 必要なカラムを指定せずに SELECT * を使用 - I/O とメモリ使用量が増加する
- バッチ処理ではなく小規模な頻繁な挿入を実行 - 過度なパート作成を引き起こす
- クエリで FINAL 修飾子に依存 - クエリ時に高コストなデータマージを強制する
- 分析クエリで JOIN を作りすぎる - より良いパフォーマンスのためにデータを非正規化する