<rt id="bn8ez"></rt>
<label id="bn8ez"></label>

  • <span id="bn8ez"></span>

    <label id="bn8ez"><meter id="bn8ez"></meter></label>

    posts - 495,comments - 227,trackbacks - 0

    http://www.rigongyizu.com/mapreduce-job-one-map-process-one-file/

    有一批數據用hadoop mapreduce job處理時,業務特點要求一個文件對應一個map來處理,如果兩個或多個map處理了同一個文件,可能會有問題。開始想通過設置 dfs.blocksize 或者 mapreduce.input.fileinputformat.split.minsize/maxsize 參數來控制map的個數,后來想到其實不用這么復雜,在自定義的InputFormat里面直接讓文件不要進行split就可以了。

    public class CustemDocInputFormat extends TextInputFormat {
     
        @Override
        public RecordReader<LongWritable, Text> createRecordReader(InputSplit split, TaskAttemptContext context) {
            DocRecordReader reader = null;
            try {
                reader = new DocRecordReader(); // 自定義的reader
            } catch (IOException e) {
                e.printStackTrace();
            }
            return reader;
        }
     
        @Override
        protected boolean isSplitable(JobContext context, Path file) {
            return false;
        }
    }

    這樣,輸入文件有多少個,job就會啟動多少個map了。

    posted on 2014-09-16 09:28 SIMONE 閱讀(526) 評論(0)  編輯  收藏 所屬分類: hadoop
    主站蜘蛛池模板: 免费v片在线观看视频网站| 一级白嫩美女毛片免费| 97久久免费视频| 亚洲成色在线影院| 8x网站免费入口在线观看| 亚洲黄色网址在线观看| 99ee6热久久免费精品6| 亚洲首页在线观看| 希望影院高清免费观看视频| 亚洲国产夜色在线观看| 精品久久洲久久久久护士免费| 亚洲A∨精品一区二区三区下载| 精品免费久久久久久成人影院| 国产亚洲综合精品一区二区三区| 国产zzjjzzjj视频全免费| 日本精品久久久久久久久免费| 亚洲精品老司机在线观看| 国产在线观a免费观看| 久久精品亚洲中文字幕无码网站 | 亚洲免费视频一区二区三区| 永久免费观看黄网站| 国产亚洲精品xxx| 91成年人免费视频| 亚洲a∨国产av综合av下载| 久久久久国产成人精品亚洲午夜| 毛片免费在线观看| 亚洲精品中文字幕无乱码麻豆 | 亚洲色婷婷综合开心网| 99久久免费国产特黄| 久久精品a亚洲国产v高清不卡| 免费一本色道久久一区| 污污视频免费观看网站| 亚洲天堂在线播放| 国产精品色午夜视频免费看| 91精品全国免费观看青青| 亚洲国产成人91精品| 中文字幕亚洲激情| 日本阿v免费费视频完整版| 人与动性xxxxx免费| 亚洲成综合人影院在院播放| 国产大片91精品免费看3|