ClickHouse 实战(从入门到精通)

梦留幻溪

1. ClickHouse入门:从零开始搭建分析平台

第一次接触ClickHouse时,我被它的性能震撼到了。当时我们需要分析上亿条用户行为日志,传统数据库查询需要几分钟,而ClickHouse只需几秒钟。这种列式数据库确实是为分析场景而生。

ClickHouse最擅长的就是处理海量数据的实时分析。想象一下,你有一个电商网站,每天产生数百万条订单记录。使用传统数据库,要统计"过去30天销量TOP10的商品"可能需要等待很久。而ClickHouse可以在秒级返回结果,这让实时决策成为可能。

安装ClickHouse非常简单,以Ubuntu系统为例:

bash复制# 添加官方仓库
sudo apt-get install -y apt-transport-https ca-certificates dirmngr
sudo apt-key adv --keyserver hkp://keyserver.ubuntu.com:80 --recv E0C56BD4

# 安装服务端和客户端
sudo apt-get update
sudo apt-get install -y clickhouse-server clickhouse-client

# 启动服务
sudo service clickhouse-server start

安装完成后,你可以立即用客户端连接:

bash复制clickhouse-client

在客户端里,我们可以创建第一个测试表:

sql复制CREATE TABLE test.tutorial
(
    id UInt32,
    name String,
    event_time DateTime
)
ENGINE = MergeTree()
ORDER BY (event_time, id);

这个简单的例子展示了ClickHouse的基本能力。MergeTree是ClickHouse最常用的表引擎,特别适合时间序列数据。ORDER BY子句定义了主键索引,这对查询性能至关重要。

2. 实战电商数据分析:表设计与数据导入

让我们通过一个电商订单分析的实战案例,深入理解ClickHouse的应用。假设我们需要分析以下指标:

  • 每日/每周/每月销售额
  • 热销商品排行
  • 用户购买行为分析

首先设计订单表结构:

sql复制CREATE TABLE ecommerce.orders
(
    order_id UInt64,
    user_id UInt64,
    product_id UInt64,
    quantity UInt32,
    price Decimal(10,2),
    order_time DateTime,
    payment_method String,
    city String,
    province String
)
ENGINE = MergeTree()
PARTITION BY toYYYYMM(order_time)
ORDER BY (order_time, city, product_id);

这里有几个关键设计点:

  1. 使用MergeTree引擎,适合分析场景
  2. 按月份分区(partition),便于管理大数据量
  3. 排序键(order_time, city, product_id)优化了常见查询

数据导入有多种方式,最常用的是CSV导入:

bash复制clickhouse-client --query "INSERT INTO ecommerce.orders FORMAT CSV" < orders.csv

对于持续数据流,可以使用Kafka引擎:

sql复制CREATE TABLE ecommerce.orders_kafka
(
    order_id UInt64,
    user_id UInt64,
    -- 其他字段同上
)
ENGINE = Kafka()
SETTINGS
    kafka_broker_list = 'localhost:9092',
    kafka_topic_list = 'orders',
    kafka_group_name = 'clickhouse_consumer',
    kafka_format = 'JSONEachRow';

-- 创建物化视图将数据写入目标表
CREATE MATERIALIZED VIEW ecommerce.orders_mv TO ecommerce.orders
AS SELECT * FROM ecommerce.orders_kafka;

3. 高效查询与聚合分析

有了数据后,我们来看看ClickHouse强大的分析能力。首先是基本的销售统计:

sql复制-- 日销售额统计
SELECT
    toDate(order_time) AS day,
    sum(quantity * price) AS daily_sales
FROM ecommerce.orders
GROUP BY day
ORDER BY day DESC
LIMIT 30;

-- 热销商品TOP10
SELECT
    product_id,
    sum(quantity) AS total_quantity,
    sum(quantity * price) AS total_sales
FROM ecommerce.orders
GROUP BY product_id
ORDER BY total_sales DESC
LIMIT 10;

ClickHouse的聚合性能非常出色,得益于它的列式存储和向量化执行引擎。即使处理上亿条数据,这些查询也能快速返回结果。

对于更复杂的分析,比如用户购买行为漏斗:

sql复制WITH user_actions AS (
    SELECT
        user_id,
        countIf(event_type = 'view') AS views,
        countIf(event_type = 'cart') AS carts,
        countIf(event_type = 'purchase') AS purchases
    FROM ecommerce.user_events
    GROUP BY user_id
)
SELECT
    sum(views) AS total_views,
    sum(carts) AS total_carts,
    sum(purchases) AS total_purchases,
    sum(carts) / sum(views) AS view_to_cart_rate,
    sum(purchases) / sum(carts) AS cart_to_purchase_rate
FROM user_actions;

ClickHouse还支持高级分析函数:

sql复制-- 计算7日移动平均销售额
SELECT
    day,
    sales,
    avg(sales) OVER (ORDER BY day ROWS BETWEEN 6 PRECEDING AND CURRENT ROW) AS moving_avg_7day
FROM (
    SELECT
        toDate(order_time) AS day,
        sum(quantity * price) AS sales
    FROM ecommerce.orders
    GROUP BY day
);

4. 性能优化实战技巧

经过几个月的ClickHouse使用,我总结了一些性能优化经验:

1. 数据分区策略优化

sql复制-- 按城市和月份组合分区
PARTITION BY (city, toYYYYMM(order_time))

-- 按周分区更适合频繁查询最近数据
PARTITION BY toMonday(order_time)

2. 主键设计原则

  • 将高频过滤条件放在前面
  • 基数低的列(如性别)不适合做主键
  • 时间戳通常是很好的主键首列

3. 物化视图预聚合

sql复制CREATE MATERIALIZED VIEW ecommerce.daily_sales_mv
ENGINE = SummingMergeTree()
PARTITION BY toYYYYMM(day)
ORDER BY (day, product_id)
AS SELECT
    toDate(order_time) AS day,
    product_id,
    sum(quantity) AS quantity,
    sum(quantity * price) AS sales
FROM ecommerce.orders
GROUP BY day, product_id;

4. 查询优化技巧

  • 使用SAMPLE抽样快速估算
sql复制SELECT count() FROM ecommerce.orders SAMPLE 0.1
  • 避免SELECT *,只查询需要的列
  • 使用PREWHERE先过滤大量数据

5. 系统配置调优
在config.xml中调整这些参数:

xml复制<max_threads>16</max_threads>
<max_memory_usage>10000000000</max_memory_usage>
<use_uncompressed_cache>1</use_uncompressed_cache>

5. 集群部署与高可用方案

当单机性能不足时,ClickHouse的分布式能力就派上用场了。我们部署了一个6节点的集群:

  1. 配置文件示例(config.xml):
xml复制<remote_servers>
    <ecommerce_cluster>
        <shard>
            <replica>
                <host>node1</host>
                <port>9000</port>
            </replica>
            <replica>
                <host>node2</host>
                <port>9000</port>
            </replica>
        </shard>
        <shard>
            <replica>
                <host>node3</host>
                <port>9000</port>
            </replica>
            <replica>
                <host>node4</host>
                <port>9000</port>
            </replica>
        </shard>
    </ecommerce_cluster>
</remote_servers>
  1. 创建分布式表:
sql复制CREATE TABLE ecommerce.orders_distributed AS ecommerce.orders
ENGINE = Distributed(ecommerce_cluster, ecommerce, orders, rand());
  1. 数据分片策略:
  • 按用户ID哈希分片:user_id % shard_count
  • 按时间范围分片:toYYYYMM(order_time) % shard_count
  1. 使用ReplicatedMergeTree确保数据高可用:
sql复制CREATE TABLE ecommerce.orders_replicated
(
    -- 字段同前
)
ENGINE = ReplicatedMergeTree('/clickhouse/tables/{shard}/orders', '{replica}')
PARTITION BY toYYYYMM(order_time)
ORDER BY (order_time, city, product_id);

在实际使用中,我们发现ZooKeeper的配置对集群稳定性很关键。建议至少部署3个ZooKeeper节点,并监控其健康状况。

6. 监控与运维最佳实践

稳定的ClickHouse运行离不开完善的监控。我们采用以下方案:

  1. 关键监控指标:
  • 查询次数/QPS
  • 内存使用量
  • 磁盘空间
  • 后台合并操作状态
  • 复制延迟
  1. 内置系统表查询:
sql复制-- 查看正在运行的查询
SELECT * FROM system.processes;

-- 查询历史记录
SELECT * FROM system.query_log 
WHERE event_time > now() - 3600
ORDER BY query_duration_ms DESC
LIMIT 10;

-- 表空间使用情况
SELECT * FROM system.parts
WHERE table = 'orders';
  1. Prometheus监控配置:
yaml复制scrape_configs:
  - job_name: 'clickhouse'
    static_configs:
      - targets: ['clickhouse-server:9363']
  1. 日常维护命令:
sql复制-- 强制合并分区
OPTIMIZE TABLE ecommerce.orders FINAL;

-- 删除旧数据
ALTER TABLE ecommerce.orders DROP PARTITION '202301';

-- 查看表结构
DESCRIBE TABLE ecommerce.orders;
  1. 备份策略:
  • 使用clickhouse-backup工具定期全量备份
  • 重要数据配置双副本
  • 跨机房部署灾备集群

7. 高级特性与实战案例

ClickHouse还有一些强大的高级特性:

1. 窗口函数分析用户行为

sql复制SELECT
    user_id,
    order_time,
    runningSum(total) OVER (PARTITION BY user_id ORDER BY order_time) AS cumulative_spend
FROM (
    SELECT 
        user_id,
        toStartOfHour(order_time) AS order_time,
        sum(price * quantity) AS total
    FROM ecommerce.orders
    GROUP BY user_id, order_time
);

2. 用户留存分析

sql复制WITH 
first_purchases AS (
    SELECT 
        user_id,
        min(toDate(order_time)) AS first_date
    FROM ecommerce.orders
    GROUP BY user_id
),
daily_users AS (
    SELECT
        toDate(order_time) AS day,
        user_id
    FROM ecommerce.orders
    GROUP BY day, user_id
)
SELECT
    first_date,
    day - first_date AS day_diff,
    countDistinct(d.user_id) AS users
FROM first_purchases fp
JOIN daily_users d ON fp.user_id = d.user_id
GROUP BY first_date, day_diff
ORDER BY first_date, day_diff;

3. 地理位置分析

sql复制SELECT
    province,
    city,
    count() AS orders,
    sum(price * quantity) AS sales
FROM ecommerce.orders
GROUP BY 
    province,
    city
WITH CUBE;

4. 实时数据可视化集成

sql复制-- 创建物化视图供Grafana使用
CREATE MATERIALIZED VIEW ecommerce.sales_dashboard
ENGINE = AggregatingMergeTree()
ORDER BY (metric_date, metric_name)
AS SELECT
    toDate(order_time) AS metric_date,
    'daily_sales' AS metric_name,
    sumState(price * quantity) AS value
FROM ecommerce.orders
GROUP BY metric_date, metric_name;

在实际项目中,我们使用这套方案将数据分析延迟从小时级降低到秒级,大大提升了业务决策效率。特别是在大促期间,实时监控销售情况帮助我们快速调整营销策略。

内容推荐

CentOS 7/8 图形化部署Wireshark:从零搭建网络分析环境
本文详细介绍了在CentOS 7/8系统上图形化部署Wireshark的完整流程,从搭建桌面环境到解决常见依赖问题,再到安装和配置Wireshark图形化界面。文章还提供了首次抓包实战指南和进阶配置技巧,帮助用户快速掌握这一强大的网络分析工具,适用于网络故障排查、安全分析和协议学习等场景。
避坑指南:RK3566 HDMI输入调试中,那些驱动和应用层容易踩的‘坑’(以拔插检测为例)
本文深入探讨了RK3566平台HDMI输入调试中的常见问题与解决方案,重点分析了驱动层和应用层的技术难点。通过实战案例,详细解析了拔插检测、分辨率切换等关键功能的调试方法,并提供了DTS配置、中断处理和应用层适配的专业指导,帮助开发者高效避开HDMIIN调试中的典型陷阱。
当你的NC被Ban了怎么办?5种不依赖Netcat的Linux反弹Shell奇技淫巧
本文详细介绍了5种在Linux系统中无需Netcat即可实现反弹Shell的高阶技巧,包括Bash内置TCP连接、Python多版本兼容方案、系统工具链组合技等。特别针对Netcat被禁用的情况,提供了base64编码绕过等实用方法,帮助渗透测试人员突破工具限制。
别再死记公式了!聊聊数学建模中那些‘活’的概率模型:从随机库存到人口预测
本文探讨了数学建模中概率模型的核心思想与应用实践,从随机库存到人口预测等多个领域展示了其强大的分析能力。通过实例解析和统一框架,帮助读者理解如何在不确性中寻找最优决策,提升数学建模的实际应用价值。
从零到一:手把手教你实现电机电流环PID控制
本文详细介绍了从零开始实现电机电流环PID控制的完整流程,包括硬件电路搭建、PID算法代码实现及参数整定技巧。通过实用的例程和调试方法,帮助初学者快速掌握电流环控制的核心技术,解决响应速度、稳定性和抗干扰等关键问题。
从功耗与成本出发:如何为你的Zynq UltraScale+项目选择最优电源方案(0.72V vs 0.85V实战分析)
本文深入分析了Xilinx Zynq UltraScale+平台在0.72V与0.85V两种电源模式下的系统级权衡,包括性能、功耗、成本及PCB设计影响。通过实测数据与工程案例,为FPGA电源设计提供决策框架,帮助开发者在不同应用场景下选择最优电源方案。
别再死记硬背W底和头肩底了!用Python+TA-Lib实战量化交易中的K线形态识别
本文详细介绍了如何利用Python和TA-Lib库实现量化交易中的K线形态识别,特别是W底和头肩底形态的自动化检测。通过实战代码示例,展示了从环境搭建、数据准备到形态识别策略开发和回测的全流程,帮助交易者提升技术分析效率和准确性。
实战解析:前端调用百度云OAuth接口时CORS跨域报错与代理服务器解决方案
本文详细解析前端调用百度云OAuth接口时遇到的CORS跨域问题,并提供代理服务器解决方案。通过分析报错本质、解释跨域触发原因,并给出uni-app中的具体配置示例,帮助开发者有效解决CORS限制,实现安全高效的API调用。
M1 Mac用户看过来:不装VirtualBox,用PD虚拟机也能跑eNSP的保姆级教程
本文为M1/M2 Mac用户提供了一套无需VirtualBox,通过Parallels Desktop虚拟机流畅运行华为eNSP的完整教程。详细介绍了ARM版Windows镜像选择、Parallels Desktop专业版配置、Npcap替代WinPcap的深度配置等关键步骤,帮助网络工程师在ARM架构上实现高效网络仿真。
保姆级教程:用RK3588的NPU跑通你的第一个AI模型(从环境搭建到推理部署)
本文提供了一份详细的RK3588 NPU开发教程,涵盖从环境搭建到模型推理部署的全流程。重点介绍了RK3588芯片的NPU开发环境配置、模型转换技巧、开发板部署优化以及常见问题排查方法,帮助开发者高效利用6TOPS算力实现AI模型部署。
【Python第三方库】tqdm——从基础到实战的深度应用指南
本文深入探讨Python第三方库tqdm的基础使用与高级技巧,帮助开发者高效实现进度条功能。从安装配置到自定义样式、多进度条并行,再到与Pandas、机器学习及爬虫开发的实战结合,全面展示tqdm在数据处理和任务监控中的强大应用。
别再死记硬背公式了!用PyTorch代码实战搞懂5种卷积(含转置/空洞/深度可分离)
本文通过PyTorch代码实战详细解析了5种卷积操作,包括常规卷积、转置卷积、膨胀卷积、分组卷积和深度可分离卷积。从公式推导到实际应用,帮助开发者深入理解每种卷积的尺寸变化、参数计算及适用场景,特别适合需要优化模型性能的AI工程师和研究人员。
【Java实战】Hutool TreeUtil进阶:自定义排序与动态字段映射的树形结构构建
本文深入探讨了Hutool TreeUtil在Java项目中的进阶应用,重点解析了如何实现自定义排序与动态字段映射的树形结构构建。通过电商后台菜单管理案例,详细展示了突破weight字段限制、多级排序优化、动态字段映射等实用技巧,帮助开发者高效处理复杂业务场景下的树形数据。
第八章:MATLAB结构体进阶:从数据封装到工程实践
本文深入探讨MATLAB结构体在工程实践中的高级应用,从数据封装到性能优化。通过实际案例展示如何利用struct处理多源异构数据,实现高效批量操作与可视化,并分享结构体数组的调试技巧与内存管理策略,帮助工程师提升数据处理效率。
从实战演练到深度解析:一场数据安全竞赛的应急响应全记录
本文详细记录了一场数据安全竞赛中的应急响应实战过程,涵盖Windows事件日志分析、进程监控和网络流量分析三大核心技能。通过异常登录行为识别、攻击源定位、提权过程分析及后门程序检测,展示了从暴力破解到数据窃取的完整攻击链还原方法,为安全从业者提供实用技巧和实战经验。
[实战指南] 基于STM32F103C8T6与MCP4725的I2C DAC扩展方案
本文详细介绍了基于STM32F103C8T6与MCP4725的I2C DAC扩展方案,包括硬件连接、电路设计要点和软件驱动开发。通过实战案例和源码解析,帮助开发者快速实现高精度模拟信号输出,适用于电机控制、音频生成等场景。
基于Docker Macvlan实现OpenWrt旁路由与宿主机双向通信及网关配置
本文详细介绍了如何利用Docker Macvlan网络模式实现OpenWrt旁路由与宿主机的双向通信及网关配置。通过创建Macvlan网络、部署OpenWrt容器并配置宿主机虚拟接口,解决了传统Docker网络隔离导致的通信问题,显著提升网络性能与互通性。文章包含实战步骤、IP规划建议及常见问题排查指南,适合需要优化家庭网络或开发环境的用户。
AD16 PCB设计效率跃迁:深度解析五大核心偏好设置
本文深度解析AD16 PCB设计的五大核心偏好设置,包括PCB Editor、Interactive Routing和Board Insight Display等关键配置,帮助工程师显著提升设计效率。通过优化铺铜自动更新、智能走线、视图显示等设置,可减少40%以上的重复操作时间,特别适用于4层以上复杂板卡设计。
移动机器人激光SLAM导航(一):传感器融合与运动模型解析
本文深入解析移动机器人激光SLAM导航中的传感器融合与运动模型,重点探讨激光雷达、IMU和轮式里程计的多传感器数据融合技术,以及卡尔曼滤波等核心算法在SLAM系统中的应用实践,为移动机器人导航提供理论基础和工程经验。
cwRsync实战:从零搭建Windows高效文件同步服务
本文详细介绍了如何在Windows环境下使用cwRsync搭建高效文件同步服务。从安装配置到实战技巧,涵盖增量同步、权限设置、自动化方案等核心内容,帮助用户解决跨平台文件同步难题,提升工作效率。特别适合需要频繁同步文件的运维人员和开发团队。
已经到底了哦
精选内容
热门内容
最新内容
CUDA 12.1与PyTorch 2.1.0环境搭建:从依赖配置到手动安装的完整指南
本文详细介绍了在Linux系统上搭建CUDA 12.1与PyTorch 2.1.0环境的完整指南,包括系统配置、CUDA安装、cuDNN加速库配置以及PyTorch手动安装步骤。通过清晰的命令和实用技巧,帮助开发者高效完成环境搭建,确保深度学习任务能够顺利运行。
头哥实践平台之MapReduce数据处理实战
本文详细介绍了在头哥实践平台上进行MapReduce数据处理实战的全过程,包括Hadoop环境搭建、学生成绩分析、文件合并去重以及数据关联分析等核心案例。通过具体代码示例和步骤说明,帮助读者快速掌握MapReduce编程技巧,提升大数据处理能力。
从UVM实战看Virtual Interface:老司机教你如何优雅地配置和传递虚接口(附避坑指南)
本文深入探讨了SystemVerilog中virtual interface在UVM验证框架下的工程化实践,详细解析了虚接口的配置、传递策略及常见问题解决方案。通过实际代码示例和架构设计建议,帮助验证工程师优雅地管理虚接口,规避空指针、信号竞争等典型陷阱,提升验证效率与可靠性。
HC32F003串口通信避坑指南:从19200到115200,如何稳定配置UART1(附源码)
本文深入解析HC32F003串口通信的稳定性优化方案,从硬件设计、时钟配置到波特率精准生成技术,提供了一套经过量产验证的UART1稳定通信方案。特别针对19200到115200等高波特率下的数据错乱、丢包问题,分享了中断处理、DMA传输优化等实战技巧,并附完整源码示例。
Ubuntu 22.04 下 VASP 5.4.4 保姆级编译指南:从依赖库到并行测试,一次搞定
本文提供Ubuntu 22.04系统下VASP 5.4.4的完整编译指南,涵盖从依赖库安装到并行测试的全流程。详细讲解环境配置、数学库编译优化、VASP源码编译及性能调优技巧,帮助科研人员高效完成安装并解决常见问题,特别适合计算材料学领域的研究者。
【三维重建】从破损到完美:使用fTetWild实现任意网格的流形水密化实战
本文详细介绍了使用fTetWild工具实现三维网格流形水密化的实战方法。针对3D扫描模型常见的孔洞、自相交和非流形结构问题,fTetWild通过智能填充和自适应优化算法,能够高效生成符合数学要求的流形网格。文章提供了不同场景下的参数配置指南和质量验证技巧,帮助用户快速解决三维重建中的网格修复难题。
从数据流到点云:Intel RealSense Viewer 核心功能实战解析
本文深入解析Intel RealSense Viewer的核心功能,从数据流配置到3D点云交互,帮助开发者高效利用这款3D视觉工具。通过实战案例展示如何优化相机设置、增强深度可视化效果,并分享多场景应用技巧,提升工业测量、机器人导航等领域的开发效率。
编译器架构演进:从GCC的“大一统”到LLVM的“模块化”革命
本文探讨了编译器架构从GCC的'大一统'到LLVM的'模块化'革命演进历程。GCC作为传统编译器代表,其紧密耦合的架构面临维护困难和扩展性差等问题;而LLVM通过引入统一的中间表示(LLVM IR),实现了前后端解耦和优化过程统一,显著提升了编译效率和开发者体验。文章对比了两者在编译速度、内存占用等方面的差异,并分析了模块化架构带来的技术优势与未来发展方向。
CVPR 2020冷门神技:用图像分割的思路‘调教’GAN,让你的生成结果告别‘塑料感’
本文探讨了CVPR 2020上提出的创新方法,通过将U-Net架构引入GAN的判别器设计,显著提升了生成图像的视觉真实感。该方法利用U-Net的像素级反馈机制和CutMix数据增强技术,有效解决了传统GAN生成图像的'塑料感'问题,在FFHQ、CelebA等数据集上实现了显著的FID分数提升。
别再乱用set_multicycle_path了!一个真实案例讲透SDC中的多周期约束(含-start/-end选项详解)
本文深入解析SDC中`set_multicycle_path`命令的正确使用方法,通过真实案例详细讲解多周期路径约束的本质,特别是`-start`和`-end`选项的区别与应用场景。帮助工程师避免常见误用,确保静态时序分析(STA)的准确性,提升芯片设计的可靠性和性能表现。