网站首页 > 教程文章 正文
摘要:
ClickHouse 挺好用的,但是这些坑防不胜防,用过的才懂。本篇文章将持续更新...
1.内存限制
2.写数据失败
3.删除数据
4.Join 关联默认值
现在用不到没关系,先收藏,防止后面找不到哦。
1、group by 使用内存限制
错误信息如下:
Code: 241.DB::Exception: Memory limit (for query) exceeded:would use
9.37 GiB (attempt to allocate chunk of 134217760 bytes),
maximum: 9.31 GiB.
定位到该查询中的 SQL 中使用了 group by ,默认的配置中没有对 group by 做内存限制。
解决方案:
执行 SQL 之前,在客户端进行如下设置
set max_memory_usage=32000000000;
set max_bytes_before_external_group_by=16000000000;
-- 下面是 sql 内容
在进行group by的时候,内存使用量已经达到了
max_bytes_before_external_group_by的时候就进行写磁盘(基于磁盘的group by相对于基于磁盘的order by性能损耗要好很多的),一般
max_bytes_before_external_group_by设置为max_memory_usage / 2,原因是在clickhouse中聚合分两个阶段:查询并且建立中间数据;合并中间数据 写磁盘在第一个阶段,如果无须写磁盘,clickhouse在第一个和第二个阶段需要使用相同的内存。
https://clickhouse.tech/docs/en/sql-reference/statements/select/group-by/#select-group-by-in-external-memory
2、写入数据失败
1.错误信息如下:
Too many parts (300). Merges are processing significantly
slower than inserts...
使用 Flink 实时消费 Kafka 的数据,Sink 到 ClickHouse ,策略是一条一条插入,任务上线一段时间之后,ClickHouse 扛不住数据插入的压力了(
是因为MergeTree的merge的速度跟不上 data part 生成的速度。),就报错了上述的报错信息。
解决方案:
优化 FLink ClickHouse Sink逻辑, 根据时间和数据量做触发,满足其一才会执行插入操作。
2.错误信息如下
Code: 252, e.displayText() = DB::Exception: Too many partitions
for single INSERT block (more than 100).
大概意思就是单次插入的数据分区太多了,超过默认配置的 100 个了。
解决方案:
1.合理设置分区字段 2.修改这个
max_partitions_per_insert_block 参数,调大这个值。
3、删除数据失败
错误信息如下:
Code: 359,e.displayText()=DB::Exception: Table or Partition in xxx was not dropped.
Reason:
1. Size (158.40 GB) is greater than max_[table/partition]_size_to_drop (50.00 GB)
2. File '/data/clickhouse/clickhouse-server/flags/force_drop_table' intended to force DROP doesn't exist
从报错信息中的原因 1 可以看到,删除的数据实际大小已经超过了配置的大小。原因 2 说明是可以跳过配置检查,进行强制删除的,但是没找到这个文件
/data/clickhouse/clickhouse-server/flags/force_drop_table,所以不能跳过检查,也就是不能强制删除。
根据错误提示2 ,在所在的节点执行:
sudo touch '/data/clickhouse/clickhouse-server/flags/force_drop_table'
&& sudo chmod 666 '/data/clickhouse/clickhouse-server/flags/force_drop_table'
然后再次执行 删除操作就可以了。
需要注意的是,这个标识文件有效期只有一次,执行删除完毕之后,这个文件就会消失。
4、Join 误用
关联两张表,对于未关联的行,使用该字段的默认值填充,而不是使用 null 填充。
在 system.settings 表中可以找到参数 join_use_nulls
这和我们在 Mysql 或者 Hive 等使用习惯上不一致,如果想要改成一样的,需要修改这个参数 join_use_nulls 为 1。
准备数据
-- 建表 1
create table st_center.test_join_1
(
id String,
name String
) engine = MergeTree() order by tuple() SETTINGS index_granularity = 8192;
-- 建表 2
create table st_center.test_join_2
(
id String,
name String
) engine = MergeTree() order by tuple() SETTINGS index_granularity = 8192;
-- 插入测试数据
insert into test_join_1(id, name) values ('1','大数据学习指南');
insert into test_join_1(id, name) values ('2','大数据进阶之路');
insert into test_join_2(id, name) values ('1','大数据学习指南');
数据准备好了,下面我们测试一下。
select * from st_center.test_join_1 as t1
all left join st_center.test_join_2 as t2
on t1.id = t2.id
关联结果如下,未连接的行使用默认值填充的。String类型就填充空字符串,数值类型就填充 0
修改参数,在 SQL 最后加入 settings join_use_nulls = 1
select * from st_center.test_join_1 as t1
all left join st_center.test_join_2 as t2
on t1.id = t2.id
settings join_use_nulls = 1
关联结果如下,和我们在 mysql 等中的使用习惯一样了。
如果对你有帮助,欢迎点赞收藏转发,关注我,不迷路,带你学习大数据!
猜你喜欢
- 2025-03-12 ClickHouse中文文档-官方出品
- 2025-03-12 ClickHouse在自助行为分析场景的实践应用
- 2025-03-12 数仓选型必列入考虑的OLAP列式数据库ClickHouse(上)
- 2025-03-12 在AWS上快速搭建使用clickhouse
- 2025-03-12 列式数据库管理系统——ClickHouse实战演练
- 2025-03-12 补齐可视化短板,跟ClickHouse共建日志平台的好搭档找到了
- 2025-03-12 Clickhouse多磁盘存储,实现冷热数据分离
- 2025-03-12 ByConity真的可以替换ClickHouse吗?
- 2025-03-12 「clickhouse专栏」新建库用户及角色
- 2025-03-12 大数据ClickHouse(二十):ClickHouse 可视化工具操作
- 05-11阿里开源MySQL中间件Canal快速入门
- 05-11MyBatis插件开发实战:手写一个分页插件
- 05-11Flask数据库——SQLAlchemy
- 05-11MySQL 到 Hazelcast Cloud 实时数据同步实操分享
- 05-11sqlmap 详解
- 05-11一篇文章让你学会Elasticsearch中的查询
- 05-11Mysql性能优化这5点你知道吗?简单却容易被初学者忽略!
- 05-11Spring Boot 实现 MySQL 读写分离技术
- 最近发表
- 标签列表
-
- location.href (44)
- document.ready (36)
- git checkout -b (34)
- 跃点数 (35)
- 阿里云镜像地址 (33)
- qt qmessagebox (36)
- md5 sha1 (32)
- mybatis plus page (35)
- semaphore 使用详解 (32)
- update from 语句 (32)
- vue @scroll (38)
- 堆栈区别 (33)
- 在线子域名爆破 (32)
- 什么是容器 (33)
- sha1 md5 (33)
- navicat导出数据 (34)
- 阿里云acp考试 (33)
- 阿里云 nacos (34)
- redhat官网下载镜像 (36)
- srs服务器 (33)
- pico开发者 (33)
- https的端口号 (34)
- vscode更改主题 (35)
- 阿里云资源池 (34)
- os.path.join (33)