Hive快速入门系列(15) | Hive性能调优 [二] 表的优化
此次博主为大家带来的是Hive性能调优中的表的优化。
一. 小表、大表Join
将key相对分散,并且数据量小的表放在join的左边,这样可以有效减少内存溢出错误发生的几率;再进一步,可以使用map join让小的维度表(1000条以下的记录条数)先进内存。在map端完成reduce。
实 际 测 试 发 现 : 新 版 的 h i v e 已 经 对 小 表 J O I N 大 表 和 大 表 J O I N 小 表 进 行 了 优 化 。 小 表 放 在 左 边 和 右 边 已 经 没 有 明 显 区 别 。 \color{#FF0000}{实际测试发现:新版的hive已经对小表JOIN大表和大表JOIN小表进行了优化。小表放在左边和右边已经没有明显区别。} 实际测试发现:新版的hive已经对小表JOIN大表和大表JOIN小表进行了优化。小表放在左边和右边已经没有明显区别。
案例实操
- 1. 需求
测试大表JOIN小表和小表JOIN大表的效率 - 2.建大表、小表和JOIN后表的语句
// 创建大表
create table bigtable(id bigint, time bigint, uid string, keyword string, url_rank int, click_num int, click_url string) row format delimited fields terminated by '\t';
// 创建小表
create table smalltable(id bigint, time bigint, uid string, keyword string, url_rank int, click_num int, click_url string) row format delimited fields terminated by '\t';
// 创建join后表的语句
create table jointable(id bigint, time bigint, uid string, keyword string, url_rank int, click_num int, click_url string) row format delimited fields terminated by '\t';
- 1
- 2
- 3
- 4
- 5
- 6
- 7
- 3. 分别向大表和小表中导入数据
hive (default)> load data local inpath '/opt/module/datas/bigtable' into table bigtable;
hive (default)>load data local inpath '/opt/module/datas/smalltable' into table smalltable;
- 1
- 2
- 3
- 4. 关闭mapjoin功能(默认是打开的)
set hive.auto.convert.join = false;
- 1
- 5. 执行小表JOIN大表语句
insert overwrite table jointable
select b.id, b.time, b.uid, b.keyword, b.url_rank, b.click_num, b.click_url
from smalltable s
left join bigtable b
on b.id = s.id;
- 1
- 2
- 3
- 4
- 5
- 6
- 6. 执行大表JOIN小表语句
insert overwrite table jointable
select b.id, b.time, b.uid, b.keyword, b.url_rank, b.click_num, b.click_url
from bigtable b
left join smalltable s
on s.id = b.id;
- 1
- 2
- 3
- 4
- 5
- 6
我们可见时间是差不多的,正好验证了上面的结论。
二. 大表Join大表
2.1 空KEY过滤
有时join超时是因为某些key对应的数据太多,而相同key对应的数据都会发送到相同的reducer上,从而导致内存不够。此时我们应该仔细分析这些异常的key,很多情况下,这些key对应的数据是异常数据,我们需要在SQL语句中进行过滤。例如key对应的字段为空,操作如下:
案例操作:
- 1. 配置历史服务器
// 配置mapred-site.xml
<property>
<name>mapreduce.jobhistory.address</name>
<value>hadoop001:10020</value>
</property>
<property> <name>mapreduce.jobhistory.webapp.address</name> <value>hadoop001:19888</value>
</property>
// 启动历史服务器
sbin/mr-jobhistory-daemon.sh start historyserver
- 1
- 2
- 3
- 4
- 5
- 6
- 7
- 8
- 9
- 10
- 11
- 12
- 13
查看jobhistory http://hadoop001:19888/jobhistory
- 2. 创建原始数据表、空id表、合并后数据表
// 创建原始表
create table ori(id bigint, time bigint, uid string, keyword string, url_rank int, click_num int, click_url string) row format delimited fields terminated by '\t';
// 创建空id表
create table nullidtable(id bigint, time bigint, uid string, keyword string, url_rank int, click_num int, click_url string) row format delimited fields terminated by '\t';
// 创建join后表的语句
create table jointable(id bigint, time bigint, uid string, keyword string, url_rank int, click_num int, click_url string) row format delimited fields terminated by '\t';
- 1
- 2
- 3
- 4
- 5
- 6
- 7
- 3. 分别加载原始数据和空id数据到对应表中
hive (default)> load data local inpath '/opt/module/datas/ori' into table ori;
hive (default)> load data local inpath '/opt/module/datas/nullid' into table nullidtable;
- 1
- 2
- 3
- 4. 测试不过滤空id
hive (default)> insert overwrite table jointable select n.* from nullidtable n
left join ori o on n.id = o.id;
- 1
- 2
- 3
- 5. 测试过滤空id
hive (default)> insert overwrite table jointable select n.* from (select * from nullidtable where id is not null ) n left join ori o on n.id = o.id;
- 1
2.2 空key转换
有时虽然某个key为空对应的数据很多,但是相应的数据不是异常数据,必须要包含在join的结果中,此时我们可以表a中key为空的字段赋一个随机的值,使得数据随机均匀地分不到不同的reducer上。
案例实操:
1. 不随机分布空null值:
- 1. 设置5个reduce个数
set mapreduce.job.reduces = 5;
- 1
- 2. JOIN两张表
insert overwrite table jointable
select n.* from nullidtable n left join ori b on n.id = b.id;
- 1
- 2
- 3
结果:如下图所示,可以看出来,出现了数据倾斜,某些reducer的资源消耗远大于其他reducer。
2. 随机分布空null值
- 1. 设置5个reduce个数
set mapreduce.job.reduces = 5;
- 1
- 2. JOIN两张表
insert overwrite table jointable
select n.* from nullidtable n full join ori o on
case when n.id is null then concat('hive', rand()) else n.id end = o.id;
- 1
- 2
- 3
- 4
结果:如下图所示,可以看出来,消除了数据倾斜,负载均衡reducer的资源消耗
三. MapJoin(小表join大表)
如果不指定MapJoin或者不符合MapJoin的条件,那么Hive解析器会将Join操作转换成Common Join,即:在Reduce阶段完成join。容易发生数据倾斜。可以用MapJoin把小表全部加载到内存在map端进行join,避免reducer处理。
3.1 开启MapJoin参数设置
- 1. 设置自动选择Mapjoin
set hive.auto.convert.join = true; 默认为true
- 1
- 2. 大表小表的阈值设置(默认25M以下认为是小表):
set hive.mapjoin.smalltable.filesize=25000000;
- 1
3.1 MapJoin工作机制
案例实操:
- 1 . 开启Mapjoin功能
set hive.auto.convert.join = true; 默认为true
- 1
- 2. 执行小表JOIN大表语句
insert overwrite table jointable
select b.id, b.time, b.uid, b.keyword, b.url_rank, b.click_num, b.click_url
from smalltable s
join bigtable b
on s.id = b.id;
- 1
- 2
- 3
- 4
- 5
- 6
- 3. 执行大表JOIN小表语句
insert overwrite table jointable
select b.id, b.time, b.uid, b.keyword, b.url_rank, b.click_num, b.click_url
from bigtable b
join smalltable s
on s.id = b.id;
- 1
- 2
- 3
- 4
- 5
- 6
四. Group By
默认情况下,Map阶段同一Key数据分发给一个reduce,当一个key数据过大时就倾斜了。
并不是所有的聚合操作都需要在Reduce端完成,很多聚合操作都可以先在Map端进行部分聚合,最后在Reduce端得出最终结果。
开启Map端聚合参数设置
- 1. 是否在Map端进行聚合,默认为True
set hive.map.aggr = true
- 1
- 2. 在Map端进行聚合操作的条目数目
set hive.groupby.mapaggr.checkinterval = 100000
- 1
- 3. 有数据倾斜的时候进行负载均衡(默认是false)
set hive.groupby.skewindata = true
- 1
当选项设定为 true,生成的查询计划会有两个MR Job
。第一个MR Job中,Map的输出结果会随机分布到Reduce中,每个Reduce做部分聚合操作,并输出结果,这样处理的结果是相同的Group By Key有可能被分发到不同的Reduce中
,从而达到负载均衡的目的;第二个MR Job再根据预处理的数据结果按照Group By Key分布到Reduce中(这个过程可以保证相同的Group By Key被分布到同一个Reduce中),最后完成最终的聚合操作。
- 优化前
hive (default)> select student.name from student group by student.name;
- 1
- 2
- 优化后
hive (default)> set hive.groupby.skewindata = true;
hive (default)> select student.name from student group by student.name;
- 1
- 2
- 3
五. Count(Distinct) 去重统计
数据量小的时候无所谓,数据量大的情况下,由于COUNT DISTINCT的全聚合操作,即使设定了reduce task个数,set mapred.reduce.tasks=100;hive也只会启动一个reducer。,这就造成一个Reduce处理的数据量太大,导致整个Job很难完成,一般COUNT DISTINCT使用先GROUP BY再COUNT的方式替换:
实例操作:
- 1. 创建一张大表
hive (default)> create table bigtable(id bigint, time bigint, uid string, keyword
string, url_rank int, click_num int, click_url string) row format delimited
fields terminated by '\t';
- 1
- 2
- 3
- 4
- 2. 加载数据
hive (default)> load data local inpath '/opt/module/datas/bigtable' into table
bigtable;
- 1
- 2
- 3
- 3. 设置5个reduce个数
set mapreduce.job.reduces = 5;
- 1
- 4. 执行去重id查询
hive (default)> select count(distinct id) from bigtable;
- 1
- 2
- 5. 采用GROUP by去重id
hive (default)> select count(id) from (select id from bigtable group by id) a;
- 1
- 2
虽然会多用一个Job来完成,但在数据量大的情况下,这个绝对是值得的。
六. 笛卡尔积
尽量避免笛卡尔积,join的时候不加on条件,或者无效的on条件,Hive只能使用1个reducer来完成笛卡尔积。
七. 行列过滤
列处理:在SELECT中,只拿需要的列,如果有,尽量使用分区过滤,少用SELECT *。
行处理:在分区剪裁中,当使用外关联时,如果将副表的过滤条件写在Where后面,那么就会先全表关联,之后再过滤.
案例实操:
- 1. 测试先关联两张表,再用where条件过滤
hive (default)> select o.id from bigtable b
join ori o on o.id = b.id
where o.id <= 10;
- 1
- 2
- 3
- 4
Time taken: 34.406 seconds, Fetched: 100 row(s)
- 2. 通过子查询后,再关联表
hive (default)> select b.id from bigtable b
join (select id from ori where id <= 10 ) o on b.id = o.id;
- 1
- 2
- 3
Time taken: 30.058 seconds, Fetched: 100 row(s)
八. 动态分区调整
关系型数据库中,对分区表Insert数据时候,数据库自动会根据分区字段的值,将数据插入到相应的分区中,Hive中也提供了类似的机制,即动态分区(Dynamic Partition),只不过,使用Hive的动态分区,需要进行相应的配置。
8.1 开启动态分区参数设置
- 1. 开启动态分区功能(默认true,开启)
hive.exec.dynamic.partition=true
- 1
- 2. 设置为非严格模式(动态分区的模式,默认strict,表示必须指定至少一个分区为静态分区,nonstrict模式表示允许所有的分区字段都可以使用动态分区。)
hive.exec.dynamic.partition.mode=nonstrict
- 1
- 3. 在所有执行MR的节点上,最大一共可以创建多少个动态分区。默认1000
hive.exec.max.dynamic.partitions=1000
- 1
- 4.
在每个执行MR的节点上,最大可以创建多少个动态分区。
该参数需要根据实际的数据来设定。比如:源数据中包含了一年的数据,即day字段有365个值,那么该参数就需要设置成大于365,如果使用默认值100,则会报错。
hive.exec.max.dynamic.partitions.pernode=100
- 1
- 5. 整个MR Job中,最大可以创建多少个HDFS文件。默认100000
hive.exec.max.created.files=100000
- 1
- 6. 当有空分区生成时,是否抛出异常。一般不需要设置。默认false
hive.error.on.empty.partition=false
- 1
8.2 实例操作
需求:将dept表中的数据按照地区(loc字段),插入到目标表dept_partition的相应分区中。
- 1. 创建目标分区表
hive (default)> create table dept_partition(id int, name string) partitioned
by (location int) row format delimited fields terminated by '\t';
- 1
- 2
- 3
- 2. 设置动态分区
set hive.exec.dynamic.partition.mode = nonstrict;
hive (default)> insert into table dept_partition partition(location) select deptno, dname, loc from dept;
- 1
- 2
- 3
- 3. 查看目标分区表的分区情况
hive (default)> show partitions dept_partition;
- 1
本次的分享就到这里了,
看 完 就 赞 , 养 成 习 惯 ! ! ! \color{#FF0000}{看完就赞,养成习惯!!!} 看完就赞,养成习惯!!!^ _ ^ ❤️ ❤️ ❤️
码字不易,大家的支持就是我坚持下去的动力。点赞后不要忘了关注我哦!
文章来源: buwenbuhuo.blog.csdn.net,作者:不温卜火,版权归原作者所有,如需转载,请联系作者。
原文链接:buwenbuhuo.blog.csdn.net/article/details/105868268
- 点赞
- 收藏
- 关注作者
评论(0)