<rt id="bn8ez"></rt>
<label id="bn8ez"></label>

  • <span id="bn8ez"></span>

    <label id="bn8ez"><meter id="bn8ez"></meter></label>

    posts - 495,comments - 227,trackbacks - 0

    http://www.rigongyizu.com/mapreduce-job-one-map-process-one-file/

    有一批數(shù)據(jù)用hadoop mapreduce job處理時(shí),業(yè)務(wù)特點(diǎn)要求一個(gè)文件對(duì)應(yīng)一個(gè)map來(lái)處理,如果兩個(gè)或多個(gè)map處理了同一個(gè)文件,可能會(huì)有問(wèn)題。開(kāi)始想通過(guò)設(shè)置 dfs.blocksize 或者 mapreduce.input.fileinputformat.split.minsize/maxsize 參數(shù)來(lái)控制map的個(gè)數(shù),后來(lái)想到其實(shí)不用這么復(fù)雜,在自定義的InputFormat里面直接讓文件不要進(jìn)行split就可以了。

    public class CustemDocInputFormat extends TextInputFormat {
     
        @Override
        public RecordReader<LongWritable, Text> createRecordReader(InputSplit split, TaskAttemptContext context) {
            DocRecordReader reader = null;
            try {
                reader = new DocRecordReader(); // 自定義的reader
            } catch (IOException e) {
                e.printStackTrace();
            }
            return reader;
        }
     
        @Override
        protected boolean isSplitable(JobContext context, Path file) {
            return false;
        }
    }

    這樣,輸入文件有多少個(gè),job就會(huì)啟動(dòng)多少個(gè)map了。

    posted on 2014-09-16 09:28 SIMONE 閱讀(526) 評(píng)論(0)  編輯  收藏 所屬分類: hadoop
    主站蜘蛛池模板: 成人免费视频一区二区| 国产精品va无码免费麻豆| 免费观看四虎精品成人| 亚洲成人午夜电影| 亚洲国产成人片在线观看 | 亚洲短视频男人的影院| 国产成人免费片在线视频观看| 最近免费字幕中文大全视频| 国产免费MV大全视频网站| 亚洲av无码成人精品国产| 亚洲精品中文字幕无码AV| 亚洲VA中文字幕无码一二三区| 免费**毛片在线播放直播 | 亚洲国产成人精品无码一区二区 | 高潮毛片无遮挡高清免费视频| 亚洲人成片在线观看| 亚洲视频2020| 亚洲国产三级在线观看| 精品亚洲一区二区三区在线播放| 日韩精品免费一区二区三区| 成年性生交大片免费看| 美女被cao免费看在线看网站| 久草福利资源网站免费| 国产免费网站看v片在线| 久久免费国产精品| 男女猛烈激情xx00免费视频| 日韩国产精品亚洲а∨天堂免| 亚洲精品无码专区久久| 亚洲人成未满十八禁网站| 亚洲国产成人99精品激情在线| 亚洲日韩乱码中文无码蜜桃 | 精品国产一区二区三区免费| 最近更新免费中文字幕大全| 国产国产人免费人成成免视频| 亚洲一级片免费看| xxxxx做受大片视频免费| 产传媒61国产免费| av永久免费网站在线观看| 久久免费福利视频| 无码一区二区三区免费| 曰批视频免费40分钟试看天天|