数仓(十八)数仓建模以及分层总结(ODS、DIM、DWD、DWS、DWT、ADS层) - 墨天轮
ODS(O=original D=data S=store)
存储来自多个业务系统、前端埋点、爬虫获取的一系列数据源的数据。
我们要做三件事:
【1】保持数据原貌不做任何修改,保留历史数据,起到数据备份的作用。
【2】使用lzo压缩。100G的数据压缩之后大概为20G。
【3】创建分区表,防止后续的全表扫描,一般按天存储。
【1】前端埋点日志:由kafka或者flume采集到HDFS上
flume采集的语句[flume]参数设置_胖胖学编程的博客-CSDN博客
【2】由前端业务数据库用sqoop采集到HDFS上
前端埋点日志以JSON格式形式存在
建表语句
- create external table ods_log
- (
- line string
- )
- partitioned by (dt string)
- Stored as
- inputformat 'com.hadoop.mapred.DeprecatedLzoTextInputFormat'
- outputformat 'org.apache.hadoop.hive.ql.io.HiveIgnoreKeyTextOutputFormat'
- ;
将flume落盘的数据建立lzo索引,否则无法分片
- hadoop jar /opt/module/hadoop-3.1.4/share/hadoop/common/hadoop-lzo-0.4.20.jar \
- com.hadoop.compression.lzo.DistributedLzoIndexer \
- -Dmapreduce.job.queuename=hive \
- /user/hive/warehouse/ods.db/ods_log/dt=2022-11-11
加载建立好索引的数据
- load data inpath '/user/hive/warehouse/ods.db/ods_log/dt=2022-11-11'
- into table ods_log partition (dt='2022-11-11');
mysql数据库的表通过sqoop采集到HDFS,使用\t作为分隔符,那ods层的表也要使用\t作为分割符;
【1】增量同步:流量表(ods_flow_ph)
也是埋点表,小时级增量表,所有的埋点数据都汇总在这一张表中。
如果是用的apache hadoop就直接用flume拉取数据。
要是用阿里的dataworks:包括调度+数据集成(从MySQL啥的导数据)+MaxCompute(类似hive,可以写sql) 注:一般用阿里的服务的话还用quickBI做报表展示。就是后端和前端将数据写入到kafka中,然后从kafka中每小时进行数据同步。
【2】全量同步:用户表、订单表、看课表、课程表、章节表、教师表、互动表、卡片表
【3】特殊:一次性拉取,不建分区表(DIM层的父数据)
dim=dimension
存储为Parquet格式
全量同步:商品维度,优惠券维度。首日和每日都是全量先导入到ODS再导入到DIM层
特殊:日期,地区(自己处理)
拉链表:用户维度表(见下面)
dwd=data warehouse detail
dwd层是对事实表的处理,代表的是业务的最小粒度层,任何数据的记录都可以从这一层获取,为后续的dws和dwt层做准备。
dwd层是站在选择好事实表的基础上,对维度建模的视角。
将ods.ods_log表唯一的字段line这个json串进行解析,并将其中的内容拆分为两个表:
启动日志、事件日志
【1】周期快照事实表
每天导入全量数据。
如:购物车这个表,咱们只在乎购物车里有多少东西,不关注加减购物车内商品的操作
【2】累计快照事实表(没看完)
103-尚硅谷-数仓搭建-DWD层优惠券领用事实表_哔哩哔哩_bilibili
如:优惠券领用,这种发生周期变化的场景
领取->用券下单->用券支付->过期
- create table dwd_coupun_use(
- coupun_id string, --优惠券id
- user_id string, --用户id
- coupun_status string, --优惠券状态
- using_time string, --使用时间(下单)
- used_time string, --使用时间(支付)
- expire_time string --过期时间
- )
- partitioned by(dt string)
- ;
DIM和DWD采用维度建模,一般采用星型模型,呈现状态一般为星座模型。详情见维度建模的步骤。
dws= data warehouse service
dwt=data warehosue topic
ads=application data store
dws、dwt、ads都是以需求为驱动的,和纬度建模已经没有关系了。
dws、dwt:统称为宽表层,这两层的设计思想大致相同,通过以下案例进行说明:
两个需求,统计每个省份订单的个数、统计内个省份订单的总金额
都是将省份和订单表进行join,group by省份,然后计算,同样的数据被计算了两次,实际上类似的场景还有很多,那怎么设计才能避免重复计算呢?针对上述场景可以设计一张地区表,其主键为地区ID,字段为:下单次数,下单金额,支付次数,支付金额等,上述所有指标统一进行计算,并将结果保存在该宽表中,这样就能有效避免数据的重复计算。
3)需要那些宽表(主题表):以维度为基准
4)DWS和DWT层的区别:
DWS层存放所有当天的汇总行为,例如每个地区当天下单次数,下单金额等,dwt层存放的是所有主题对象的累计行为,例如每个地区最近7天(15天、30天、60天)的下单次数,下单金额等。
5)ads层:存储各个报表需要的结果。
用于存储变化,但变化的频率较慢的数据。这样的数据用全量存存储大量重复数据,因此用拉链表。
该条数据的有效时间
- create table dim_user_info(
- id string,
- user_name string --用户名称,
- name string --真实姓名,
- phone_num string,
- gerder string --性别,
- email string,
- create_time string --创建时间,
- operate_time string --操作时间,
- start_date string --开始日期(拉链表特有),
- end_date string --结束日期(拉链表特有)
- )
- partitioned by(dt string)
- stored as parquet
- table properties("parquet.compression"="lzo")
- ;

要进行初始化,ods层该表第一天从MySQL拉取的所有数据放到9999-99-99分区
- insert overwrite table dim.dim_user_info partition(dt='9999-99-99')
- select
- id,
- user_name,
- name,
- phone_num,
- gerder,
- email,
- create_time,
- operate_time,
- '2022-19-01' start_date,
- '9999-99-99' end_date
- from
- ods.ods_user_info
- where dt='2022-10-01'

【1】将最新的数据装载到9999-99-99分区
如果new为null(没有变化),则取old,
如果new不为null(今日发生了新增及变化),则取new
- select
- if(new.id is not null,new.id,old.id) id,
- if(new.user_name is not null,new.user_name,old.user_name) user_name,
- if(new.name is not null,new.name,old.name) name,
- if(new.phone_num is not null,new.phone_num,old.phone_num) num,
- if(new.gerder is not null,new.gerder,old.gerder) gerder,
- if(new.email is not null,new.email,old.email) nemail,
- if(new.create_time is not null,new.create_time,old.create_time) create_time ,
- if(new.operate_time is not null,new.operate_time,old.operate_time) operate_time,
- if(new.start_date is not null,new.start_date,old.start_date) start_date,
- if(new.end_date is not null,new.end_date,old.end_date) end_date
- (
- select
- id,
- user_name,
- name,
- phone_num,
- gerder,
- email,
- create_time,
- operate_time,
- '2022-19-01' start_date,
- '9999-99-99' end_date
- from
- dim.dim_user_info
- where dt='9999-99-99'
- )ods
- full join
- (
- select
- id,
- user_name,
- name,
- phone_num,
- gerder,
- email,
- create_time,
- operate_time,
- '2022-10-01' start_date,
- '9999-99-99' end_date --新增及变化的数据都是最新数据
- from
- ods.ods_user_info --ods_user_info表是每日增量导入的
- where dt='2022-10-01' --新增及变化的数据
- )new
- on ods.id=new.id
【2】将过期数据装载到前一天的分区(注意日期之间没有重合)
new和old都有的数据取old的
- select
- old.id id,
- old.user_name user_name,
- old.name name,
- old.phone_num num,
- old.gerder gerder,
- old.email nemail,
- old.create_time create_time ,
- old.operate_time operate_time,
- old.start_date start_date,
- old.end_date end_date
- (
- select
- id,
- user_name,
- name,
- phone_num,
- gerder,
- email,
- create_time,
- operate_time,
- '2022-19-01' start_date,
- '9999-99-99' end_date
- from
- dim.dim_user_info
- where dt='9999-99-99'
- )ods
- full join
- (
- select
- id,
- user_name,
- name,
- phone_num,
- gerder,
- email,
- create_time,
- operate_time,
- '2022-10-01' start_date,
- '9999-99-99' end_date --新增及变化的数据都是最新数据
- from
- ods.ods_user_info --ods_user_info表是每日增量导入的
- where dt='2022-10-01' --新增及变化的数据
- )new
- on ods.id=new.id
- where new.id is not null and old.id is not null
- ;
- --获取2019-01-01有效的所有历史数据
- select * from user_info where start_date<='2019-01-01' and end_date>='2019-01-01';
select * from user_info where end_date>='9999-99-99';
纬度建模步骤:选择业务过程声明粒度、确认纬度、确认事实

整个业务流程中选取我们需要建模的业务,根据公司业务提供的需求及日后的易扩展性等进行选择业务。
这里我们选择了几个业务过程是:支付、订单、加购物车、优惠券领用、收藏、评论、退款等。
总体采用最小粒度规则,不做任何聚合操作。
声明力度意味着定义事实表中的一行数据表示什么,应尽可能选择最小粒度,以此来应对各种各样的需求。
确定维度对象,维度的主要作用是描述业务事实,主要表示的是:“谁、何处、何时”等信息。
确定维度的原则是:后续需求中是否要分析相关维度的指标。例如:需要统计哪个用户下的订单多,哪个地区下的订单多,什么地区下单多,需要确定的维度就包括:用户维度,地区维度,时间维度。
事实表只有纬度id和度量值。