cc-skill-clickhouse-io
Domine Análise e Otimização de Consultas no ClickHouse
Lidando com consultas analíticas lentas em grandes conjuntos de dados? Aprenda padrões específicos do ClickHouse para armazenamento orientado a colunas, otimização de consultas e agregações em tempo real para alcançar análises de alto desempenho.
Télécharger le ZIP du skill
Importer dans Claude
Allez dans Paramètres → Capacités → Skills → Importer un skill
Activez et commencez à utiliser
Tester
Utilisation de "cc-skill-clickhouse-io". Criar uma tabela para estatísticas de mercado por hora
Résultat attendu:
CREATE TABLE market_stats_hourly (hour DateTime, market_id String, total_volume AggregateFunction(sum, UInt64), total_trades AggregateFunction(count, UInt32), unique_users AggregateFunction(uniq, String)) ENGINE = AggregatingMergeTree() PARTITION BY toYYYYMM(hour) ORDER BY (hour, market_id)
Utilisation de "cc-skill-clickhouse-io". Consultar usuários ativos diários dos últimos 30 dias
Résultat attendu:
SELECT toDate(timestamp) AS date, uniq(user_id) AS daily_active_users FROM events WHERE timestamp >= today() - INTERVAL 30 DAY GROUP BY date ORDER BY date
Utilisation de "cc-skill-clickhouse-io". Calcular percentis de tamanho de negociação (mediana, p95, p99)
Résultat attendu:
SELECT quantile(0.50)(trade_size) AS median, quantile(0.95)(trade_size) AS p95, quantile(0.99)(trade_size) AS p99 FROM trades WHERE created_at >= now() - INTERVAL 1 HOUR
Audit de sécurité
SûrThis skill is documentation-only containing SQL queries and TypeScript code examples for ClickHouse database operations. All 87 static analyzer findings are false positives: backticks are markdown code fences not shell execution, SQL aggregation functions (uniq, sum, countMerge) are not cryptographic algorithms, and system table queries are legitimate ClickHouse monitoring features. No executable code or security risks detected.
Score de qualité
Ce que vous pouvez construire
Engenheiro de Dados Construindo Plataforma de Análise
Projetar e otimizar tabelas ClickHouse para rastreamento de eventos de alto volume e análise de usuários com visões materializadas para dashboards em tempo real.
Analista Realizando Análise de Coorte
Executar análise de retenção, rastreamento de conversão de funil e consultas de séries temporais em grandes conjuntos de dados usando funções de agregação específicas do ClickHouse.
Desenvolvedor Integrando Métricas em Tempo Real
Implementar ingestão de dados em streaming e pipelines ETL automatizados para sincronizar dados transacionais do PostgreSQL para o ClickHouse para cargas de trabalho analíticas.
Essayez ces prompts
Ajude-me a criar uma tabela ClickHouse para armazenar dados diários de análise de mercado com colunas para date, market_id, volume e contagem de negociações. Use o mecanismo apropriado e estratégia de particionamento para consultas baseadas em tempo.
Minha consulta ClickHouse filtrando por market_name e volume está lenta em uma tabela com 100M de linhas. A tabela está ordenada por (date, market_id). Sugira otimizações e explique como reestruturar a tabela ou consulta para melhor desempenho.
Projete um esquema ClickHouse com visões materializadas para alimentar um dashboard de negociação em tempo real mostrando volume horário, contagem de negociações e traders únicos por mercado. Inclua a tabela base, definição de visão materializada e consultas de exemplo para o dashboard.
Crie uma consulta ClickHouse para calcular coortes de retenção de usuários por mês de cadastro, mostrando usuários ativos no dia 0, dia 1, dia 7 e dia 30 após o cadastro. Use uma tabela de eventos com colunas user_id e timestamp.
Bonnes pratiques
- Particionar tabelas por tempo (mês ou dia) usando colunas DATE ou DateTime para otimizar consultas de intervalo de tempo
- Ordenar chaves pelas colunas mais frequentemente filtradas com maior cardinalidade primeiro para maximizar o uso de índice
- Usar inserções em lote em vez de inserções individuais de linhas para melhorar significativamente o desempenho de ingestão
Éviter
- Usar SELECT * em vez de especificar colunas - aumenta I/O e uso de memória desnecessariamente
- Realizar inserções pequenas e frequentes em vez de agrupar em lotes - causa operações de mesclagem excessivas e degrada o desempenho
- Confiar na cláusula FINAL nas consultas - força mesclagem de dados antes da execução da consulta, desacelerando significativamente as leituras