一文看懂Doris数据模型(含样例,建议收藏)

举报
云叔记 发表于 2024/03/15 15:10:31 2024/03/15
【摘要】 一文看懂Doris数据模型,包含:3种模型总结,模型必备知识,以及3种模型场景体验。

1、三种模型场景说明总结

模型 应用场景说明
Duplicate
(重复)
适用于那些需要完全保留原始导入数据的场景,即使两行数据完全相同也会保留。
适用于既没有聚合需求,又没有主键唯一性约束的原始数据。
这种模型在处理那些需要保留原始数据详细信息的场景时非常有用,例如日志分析、审计追踪等。
Aggregate
(聚合)
对于 Key 列(维度列)相同的行会聚合成一行,而 Value 列(指标列)会按照设置的 AggregationType 进行聚合。最大的缺点就是无法查询明细数据。
通过预聚合,及大地减少查询时所需扫描和计算的数据,适合固定模式的报表类查询场景。
Unique
(唯一)
业务更加关注Key的唯一性,即主键唯一性约束。
这种模型在处理那些需要精确匹配唯一标识的数据时非常有用,例如用户ID、订单号等。



2、补充说明:

2.1、AggregationType 目前有以下几种聚合方式和agg_state:

  • SUM:求和,多行的 Value 进行累加。
  • REPLACE:替代,下一批数据中的 Value 会替换之前导入过的行中的 Value。
  • MAX:保留最大值。
  • MIN:保留最小值。
  • REPLACE_IF_NOT_NULL:非空值替换。和 REPLACE 的区别在于对于null值,不做替换。
  • HLL_UNION:HLL 类型的列的聚合方式,通过 HyperLogLog 算法聚合。
  • BITMAP_UNION:BIMTAP 类型的列的聚合方式,进行位图的并集聚合。

如果这几种聚合方式无法满足需求,则可以选择使用agg_state类型。


2.2、Unique模型提供了两种实现方式:

  • 读时合并(merge-on-read)。在读时合并实现中,用户在进行数据写入时不会触发任何数据去重相关的操作,所有数据去重的操作都在查询或者compaction时进行。因此,读时合并的写入性能较好,查询性能较差,同时内存消耗也较高。
  • 写时合并(merge-on-write)。在1.2版本中,我们引入了写时合并实现,该实现会在数据写入阶段完成所有数据去重的工作,因此能够提供非常好的查询性能。

自2.0版本起,写时合并已经非常成熟稳定, 由于其优秀的查询性能,我们推荐大部分用户选择该实现。自2.1版本其,写时合并成为Unique模型的默认实现



3、场景体验

准备:创建数据库

CREATE DATABASE IF NOT EXISTS example_db;

3.1、聚合(Aggregate)模型

CREATE TABLE IF NOT EXISTS example_db.example_tbl_agg
(
    `user_id` LARGEINT NOT NULL COMMENT "用户id",
    `date` DATE NOT NULL COMMENT "数据灌入日期时间",
    `city` VARCHAR(20) COMMENT "用户所在城市",
    `age` SMALLINT COMMENT "用户年龄",
    `sex` TINYINT COMMENT "用户性别",
    `last_visit_date` DATETIME REPLACE DEFAULT "1970-01-01 00:00:00" COMMENT "用户最后一次访问时间",
    `cost` BIGINT SUM DEFAULT "0" COMMENT "用户总消费",
    `max_dwell_time` INT MAX DEFAULT "0" COMMENT "用户最大停留时间",
    `min_dwell_time` INT MIN DEFAULT "99999" COMMENT "用户最小停留时间"
)
AGGREGATE KEY(`user_id`, `date`, `city`, `age`, `sex`)
DISTRIBUTED BY HASH(`user_id`) BUCKETS 1
PROPERTIES (
"replication_allocation" = "tag.location.default: 1"
);


insert into example_db.example_tbl_agg values
(10000,"2017-10-01","北京",20,0,"2017-10-01 06:00:00",20,10,10),
(10000,"2017-10-01","北京",20,0,"2017-10-01 07:00:00",15,2,2),
(10001,"2017-10-01","北京",30,1,"2017-10-01 17:05:45",2,22,22),
(10002,"2017-10-02","上海",20,1,"2017-10-02 12:59:12",200,5,5),
(10003,"2017-10-02","广州",32,0,"2017-10-02 11:20:00",30,11,11),
(10004,"2017-10-01","深圳",35,0,"2017-10-01 10:00:15",100,3,3),
(10004,"2017-10-03","深圳",35,0,"2017-10-03 10:20:22",11,6,6);

#分析
按照`user_id`, `date`, `city`, `age`, `sex`相同的进行聚合,包含:REPLACE,MAX,MIN以及SUM

doris4.png

3.2、唯一(Unique)模型

CREATE TABLE IF NOT EXISTS example_db.example_tbl_unique
(
    `user_id` LARGEINT NOT NULL COMMENT "用户id",
    `username` VARCHAR(50) NOT NULL COMMENT "用户昵称",
    `city` VARCHAR(20) COMMENT "用户所在城市",
    `age` SMALLINT COMMENT "用户年龄",
    `sex` TINYINT COMMENT "用户性别",
    `register_time` DATETIME COMMENT "用户注册时间"
)
UNIQUE KEY(`user_id`, `username`)
DISTRIBUTED BY HASH(`user_id`) BUCKETS 1
PROPERTIES (
"replication_allocation" = "tag.location.default: 1"
);

#插入默认数据
insert into example_db.example_tbl_unique values
(10000,"张三","北京",20,0,"2017-10-01 06:00:00"),
(10004,"陈九","深圳",35,0,"2017-10-01 10:00:15"),
(10001,"李四","北京",30,1,"2017-10-01 17:05:45"),
(10002,"王五","上海",20,1,"2017-10-02 12:59:12"),
(10003,"赵六","广州",32,0,"2017-10-02 11:20:00");

#插入新数据,感受变化
insert into example_db.example_tbl_unique values
(10001,"李四G","北京",30,1,"2017-10-01 17:05:45"),
(10000,"张三","北京F",20,0,"2017-10-01 07:00:00"),
(10004,"陈九","深圳I",35,0,"2017-10-03 10:20:22");

#分析
110001(李四)用户,由于username发生变化,不符合UNIQUE KEY,所以被认为是2条数据。
21000010004用户,符合UNIQUE KEY,最后保留的是最新数据。

doris1.png
doris2.png

3.3、重复(Duplicate)模型

CREATE TABLE IF NOT EXISTS example_db.example_tbl_duplicate
(
    `user_id` LARGEINT NOT NULL COMMENT "用户id",
    `username` VARCHAR(50) NOT NULL COMMENT "用户昵称",
    `city` VARCHAR(20) COMMENT "用户所在城市",
    `age` SMALLINT COMMENT "用户年龄",
    `sex` TINYINT COMMENT "用户性别",
    `register_time` DATETIME COMMENT "用户注册时间"
)
DUPLICATE KEY(`user_id`, `username`)
DISTRIBUTED BY HASH(`user_id`) BUCKETS 1
PROPERTIES (
"replication_allocation" = "tag.location.default: 1"
);

insert into example_db.example_tbl_duplicate values
(10000,"张三","北京",20,0,"2017-10-01 06:00:00"),
(10004,"陈九","深圳",35,0,"2017-10-01 10:00:15"),
(10001,"李四","北京",30,1,"2017-10-01 17:05:45"),
(10002,"王五","上海",20,1,"2017-10-02 12:59:12"),
(10003,"赵六","广州",32,0,"2017-10-02 11:20:00");

insert into example_db.example_tbl_duplicate values
(10000,"张三","北京",20,0,"2017-10-01 06:00:00"),
(10004,"陈九","深圳",35,0,"2017-10-01 10:00:15"),
(10001,"李四","北京",30,1,"2017-10-01 17:05:45"),
(10002,"王五","上海",20,1,"2017-10-02 12:59:12"),
(10003,"赵六","广州",32,0,"2017-10-02 11:20:00");

#分析
为了看出明显效果(请忽略业务的合理性),duplicate模型使用了预unique一样的表结构,发现插入重复的数据也是会完全保留的。

doris3.png

更多信息可参见官方文档地址:https://doris.apache.org/zh-CN/docs/data-table/data-model



往期精彩内容推荐

【快捷部署】001_Doris(2.0.3)
易经智慧解码数字化转型:象数理视角下的未来探索
数字化转型对企业有什么意义
数字化时代的利器:数仓助力企业破局突围

【版权声明】本文为华为云社区用户原创内容,转载时必须标注文章的来源(华为云社区)、文章链接、文章作者等基本信息, 否则作者和本社区有权追究责任。如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱: cloudbbs@huaweicloud.com
  • 点赞
  • 收藏
  • 关注作者

评论(0

0/1000
抱歉,系统识别当前为高风险访问,暂不支持该操作

全部回复

上滑加载中

设置昵称

在此一键设置昵称,即可参与社区互动!

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。