因?yàn)樵O(shè)置上面四個(gè)參數(shù),看上去規(guī)定了map結(jié)束,MR結(jié)束合并文件,如果文件平均小于smallfiles.avgsize啟動(dòng)一個(gè)新的MRj進(jìn)行文件的二次合并。如果啟動(dòng)mr合并文件,沒(méi)有問(wèn)題。
0.背景
近來(lái)我們公司搞小文件治理(小于10Mb),小文件太多的危害就不此贅述了。公司的開(kāi)發(fā)人員提供的合并小文件治理配置如下:
-- 設(shè)置小文件合并
set hive.merge.mapfiles=true;
set hive.merge.mapredfiles=true;
set hive.merge.size.per.task = 256000000 ;
set hive.merge.smallfiles.avgsize= 256000000 ;
看上去配置的沒(méi)啥問(wèn)題,不管是Map-only,還是MapReduce都考慮到了,只要輸出的文件小于這個(gè)值,就重新啟動(dòng)一個(gè)MR去執(zhí)行文件合并??匆卜螲ive官網(wǎng)的配置解釋

然而現(xiàn)實(shí)并非如此,廢話不多說(shuō),you can you code,no can no bb.
原分析表數(shù)據(jù)在HDFS存儲(chǔ)為551個(gè)小文件,下面所有的測(cè)試都是基于這個(gè)文件。

1.測(cè)試代碼方案1
設(shè)置啟動(dòng)map前文件合并,先使用官方默認(rèn)配置,實(shí)現(xiàn)文件合并測(cè)試
set hive.input.format = org.apache.hadoop.hive.ql.io.CombineHiveInputFormat; --官方默認(rèn)值,也是當(dāng)前平臺(tái)默認(rèn)值
set hive.merge.smallfiles.avgsize=16000000; --官方默認(rèn)值,也是當(dāng)前平臺(tái)默認(rèn)值
set hive.merge.size.per.task=256000000; --官方默認(rèn)值,也是當(dāng)前平臺(tái)默認(rèn)值
set hive.merge.mapfiles =true ; --官方默認(rèn)值,也是當(dāng)前平臺(tái)默認(rèn)值
set hive.merge.mapredfiles = true ; --官方默認(rèn)值,也是當(dāng)前平臺(tái)默認(rèn)值
drop table if exists FDM_SOR.T_FSA_BHVR_NEW_EXPO_D_tmp_tmp;
create table FDM_SOR.t_fsa_bhvr_new_expo_d_tmp_tmp
stored as orc
as
select
*
from FDM_SOR.t_fsa_bhvr_new_expo_d
where stat_date = '20200630'
結(jié)果:只產(chǎn)生了438個(gè)文件,看樣子效果不錯(cuò),文件變少了,但是發(fā)現(xiàn)還是有很多小于16Mb的文件,為啥設(shè)置了不管用呢,是不是set
hive.merge.smallfiles.avgsize官方的默認(rèn)值給的太小了。需要加大??磳?shí)驗(yàn)2.


2.測(cè)試代碼方案2
設(shè)置啟動(dòng)map前文件合并,將set
hive.merge.smallfiles.avgsize值加大,增加文件合并的Size。按照官方的說(shuō)法當(dāng)輸出的文件平均小于16Mb時(shí)系統(tǒng)會(huì)再啟動(dòng)一個(gè)MR進(jìn)行文件合并。這下該管用了吧,請(qǐng)看:
set hive.input.format = org.apache.hadoop.hive.ql.io.CombineHiveInputFormat; --官方默認(rèn)值,也是當(dāng)前平臺(tái)默認(rèn)值
set hive.merge.smallfiles.avgsize=256000000; --改了這個(gè)值,由默認(rèn)的16Mb,改成256Mb
set hive.merge.size.per.task=256000000; --官方默認(rèn)值,也是當(dāng)前平臺(tái)默認(rèn)值
set hive.merge.mapfiles =true ; --官方默認(rèn)值,也是當(dāng)前平臺(tái)默認(rèn)值
set hive.merge.mapredfiles = true ; --官方默認(rèn)值,也是當(dāng)前平臺(tái)默認(rèn)值
drop table if exists FDM_SOR.T_FSA_BHVR_NEW_EXPO_D_tmp_tmp;
create table FDM_SOR.t_fsa_bhvr_new_expo_d_tmp_tmp
stored as orc
as
select
*
from FDM_SOR.t_fsa_bhvr_new_expo_d
where stat_date = '20200630'
廢話不多說(shuō),上結(jié)果請(qǐng)看


結(jié)果分析:沒(méi)錯(cuò),第一次MR因?yàn)镃ombinetext啟動(dòng)了438個(gè)map和上面一樣,果然接著又啟動(dòng)了一個(gè)MR,進(jìn)行輸出后的文件合并??礃幼雍蹹IAO。合并要求文件大小不小256Mb,然后實(shí)際呢?pappa。文件雖然減少了很多到351個(gè),但依然有很多小文件,很多小于10Mb的文件,這個(gè)時(shí)候心里肯定一句
3.測(cè)試代碼方案3
放大招,功夫有沒(méi)有,代碼走一走,加上split參數(shù)
set mapred.max.split.size=256000000;
set mapred.min.split.size.per.node=100000000;
set mapred.min.split.size.per.rack=100000000;
set hive.input.format=org.apache.hadoop.hive.ql.io.CombineHiveInputFormat;
set hive.merge.mapfiles = true ;
set hive.merge.mapredfiles = true ;
set hive.merge.size.per.task = 256000000 ;
set hive.merge.smallfiles.avgsize=160000000 ;
drop table if exists FDM_SOR.T_FSA_BHVR_NEW_EXPO_D_tmp_tmp;
create table FDM_SOR.T_FSA_BHVR_NEW_EXPO_D_tmp_tmp
stored as orc
as
select
*
from FDM_SOR.T_FSA_BHVR_NEW_EXPO_D
where stat_date = '20200630'
廢話不多說(shuō),上結(jié)果請(qǐng)看:


結(jié)果分析:這下好了,全是大文件,44大文件,每個(gè)大文件都是辣么大,最小的都是48Mb。為啥加了split參數(shù)以后就生效了呢。前面單獨(dú)合并小文件參數(shù)沒(méi)啥效果呢?網(wǎng)上隨便搜一下,都是這種配置這種參數(shù)的?
-- 設(shè)置小文件合并
set hive.merge.mapfiles=true;
set hive.merge.mapredfiles=true;
set hive.merge.size.per.task = 256000000 ;
set hive.merge.smallfiles.avgsize= 256000000 ;
4.答案揭曉
因?yàn)樵O(shè)置上面四個(gè)參數(shù),看上去規(guī)定了map結(jié)束,MR結(jié)束合并文件,如果文件平均小于smallfiles.avgsize啟動(dòng)一個(gè)新的MRj進(jìn)行文件的二次合并。如果啟動(dòng)mr合并文件,沒(méi)有問(wèn)題。但是忽略了一個(gè)問(wèn)題,你重新啟動(dòng)一個(gè)mr合并文件,這個(gè)mr是不是需要進(jìn)行文件split,你這個(gè)參數(shù)搞小了,那就會(huì)產(chǎn)生很多task,很多map,比如很多小文件就是一個(gè)map,最終還是產(chǎn)生很多小文件(因?yàn)楹喜⑿∥募膍r只有map)。所以必須要配合split參數(shù)才有用。具體split參數(shù)使用,參考我其他博客。
本文轉(zhuǎn)載自微信公眾號(hào)「滌生大數(shù)據(jù)」,作者「滌生大數(shù)據(jù)」,可以通過(guò)以下二維碼關(guān)注。

轉(zhuǎn)載本文請(qǐng)聯(lián)系「滌生大數(shù)據(jù)」公眾號(hào)。