<rt id="bn8ez"></rt>
<label id="bn8ez"></label>

  • <span id="bn8ez"></span>

    <label id="bn8ez"><meter id="bn8ez"></meter></label>

    posts - 2,  comments - 0,  trackbacks - 0
    main:
     1 package com.aamend.hadoop.MapReduce;
     2  
     3 import java.io.IOException;
     4  
     5 import org.apache.hadoop.conf.Configuration;
     6 import org.apache.hadoop.fs.FileSystem;
     7 import org.apache.hadoop.fs.Path;
     8 import org.apache.hadoop.io.IntWritable;
     9 import org.apache.hadoop.io.Text;
    10 import org.apache.hadoop.mapreduce.Job;
    11 import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;
    12 import org.apache.hadoop.mapreduce.lib.input.TextInputFormat;
    13 import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;
    14 import org.apache.hadoop.mapreduce.lib.output.TextOutputFormat;
    15  
    16 public class WordCount {
    17  
    18     public static void main(String[] args) throws IOException,
    19             InterruptedException, ClassNotFoundException {
    20  
    21         Path inputPath = new Path(args[0]);
    22         Path outputDir = new Path(args[1]);
    23  
    24         // Create configuration
    25         Configuration conf = new Configuration(true);
    26  
    27         // Create job
    28         Job job = new Job(conf, "WordCount");
    29         job.setJarByClass(WordCountMapper.class);
    30  
    31         // Setup MapReduce
    32         job.setMapperClass(WordCountMapper.class);
    33         job.setReducerClass(WordCountReducer.class);
    34         job.setNumReduceTasks(1);
    35  
    36         // Specify key / value
    37         job.setOutputKeyClass(Text.class);
    38         job.setOutputValueClass(IntWritable.class);
    39  
    40         // Input
    41         FileInputFormat.addInputPath(job, inputPath);
    42         job.setInputFormatClass(TextInputFormat.class);
    43  
    44         // Output
    45         FileOutputFormat.setOutputPath(job, outputDir);
    46         job.setOutputFormatClass(TextOutputFormat.class);
    47  
    48         // Delete output if exists
    49         FileSystem hdfs = FileSystem.get(conf);
    50         if (hdfs.exists(outputDir))
    51             hdfs.delete(outputDir, true);
    52  
    53         // Execute job
    54         int code = job.waitForCompletion(true? 0 : 1;
    55         System.exit(code);
    56  
    57     }
    58  
    59 }

    mapper class:
     1 package com.aamend.hadoop.MapReduce;
     2  
     3 import java.io.IOException;
     4  
     5 import org.apache.hadoop.io.IntWritable;
     6 import org.apache.hadoop.io.Text;
     7 import org.apache.hadoop.mapreduce.Mapper;
     8  
     9 public class WordCountMapper extends
    10         Mapper<Object, Text, Text, IntWritable> {
    11  
    12     private final IntWritable ONE = new IntWritable(1);
    13     private Text word = new Text();
    14  
    15     public void map(Object key, Text value, Context context)
    16             throws IOException, InterruptedException {
    17  
    18         String[] csv = value.toString().split(",");
    19         for (String str : csv) {
    20             word.set(str);
    21             context.write(word, ONE);
    22         }
    23     }
    24 }

    reducer class:
     1 package com.aamend.hadoop.MapReduce;
     2  
     3 import java.io.IOException;
     4  
     5 import org.apache.hadoop.io.IntWritable;
     6 import org.apache.hadoop.io.Text;
     7 import org.apache.hadoop.mapreduce.Reducer;
     8  
     9 public class WordCountReducer extends
    10         Reducer<Text, IntWritable, Text, IntWritable> {
    11  
    12     public void reduce(Text text, Iterable<IntWritable> values, Context context)
    13             throws IOException, InterruptedException {
    14         int sum = 0;
    15         for (IntWritable value : values) {
    16             sum += value.get();
    17         }
    18         context.write(text, new IntWritable(sum));
    19     }
    20 }




    posted on 2014-09-24 21:48 hqjma 閱讀(87) 評論(0)  編輯  收藏

    只有注冊用戶登錄后才能發表評論。


    網站導航:
     
    <2025年7月>
    293012345
    6789101112
    13141516171819
    20212223242526
    272829303112
    3456789

    常用鏈接

    留言簿

    隨筆分類

    隨筆檔案

    文章分類

    文章檔案

    搜索

    •  

    最新評論

    閱讀排行榜

    評論排行榜

    主站蜘蛛池模板: 在线A亚洲老鸭窝天堂| 午夜免费福利在线| 久久久久女教师免费一区| 思思久久99热免费精品6 | 日本19禁啪啪无遮挡免费动图| 免费a级毛片无码av| 亚洲美女又黄又爽在线观看| 亚洲韩国在线一卡二卡| 亚洲а∨天堂久久精品9966| 欧洲精品码一区二区三区免费看| 午夜精品免费在线观看| 国产a级特黄的片子视频免费| 久久精品国产亚洲AV电影| 美女免费视频一区二区三区| 久久久久国色av免费看| 亚洲自偷自拍另类图片二区| 91成人免费在线视频| 亚洲国产精品自产在线播放| 亚洲欧洲日韩国产| 国产黄色片免费看| 永久中文字幕免费视频网站| 香港特级三A毛片免费观看| 亚洲一级特黄大片在线观看| 亚洲av永久综合在线观看尤物| 国产免费人成视频在线播放播 | 国产精品视频白浆免费视频| 大陆一级毛片免费视频观看i| 亚洲精品高清国产一线久久| 亚洲精品无码成人片久久不卡| 免费国产黄网站在线观看视频| 亚洲国产主播精品极品网红| 亚洲精品宾馆在线精品酒店| 国产2021精品视频免费播放| 亚洲一区二区女搞男| 永久免费在线观看视频| 久久久久亚洲精品无码蜜桃| 成人免费一区二区无码视频| 在线电影你懂的亚洲| 免费国产一级特黄久久| 免费A级毛片无码A∨中文字幕下载| 最新亚洲春色Av无码专区|