<rt id="bn8ez"></rt>
<label id="bn8ez"></label>

  • <span id="bn8ez"></span>

    <label id="bn8ez"><meter id="bn8ez"></meter></label>

    posts - 2,  comments - 0,  trackbacks - 0
    main:
     1 package com.aamend.hadoop.MapReduce;
     2  
     3 import java.io.IOException;
     4  
     5 import org.apache.hadoop.conf.Configuration;
     6 import org.apache.hadoop.fs.FileSystem;
     7 import org.apache.hadoop.fs.Path;
     8 import org.apache.hadoop.io.IntWritable;
     9 import org.apache.hadoop.io.Text;
    10 import org.apache.hadoop.mapreduce.Job;
    11 import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;
    12 import org.apache.hadoop.mapreduce.lib.input.TextInputFormat;
    13 import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;
    14 import org.apache.hadoop.mapreduce.lib.output.TextOutputFormat;
    15  
    16 public class WordCount {
    17  
    18     public static void main(String[] args) throws IOException,
    19             InterruptedException, ClassNotFoundException {
    20  
    21         Path inputPath = new Path(args[0]);
    22         Path outputDir = new Path(args[1]);
    23  
    24         // Create configuration
    25         Configuration conf = new Configuration(true);
    26  
    27         // Create job
    28         Job job = new Job(conf, "WordCount");
    29         job.setJarByClass(WordCountMapper.class);
    30  
    31         // Setup MapReduce
    32         job.setMapperClass(WordCountMapper.class);
    33         job.setReducerClass(WordCountReducer.class);
    34         job.setNumReduceTasks(1);
    35  
    36         // Specify key / value
    37         job.setOutputKeyClass(Text.class);
    38         job.setOutputValueClass(IntWritable.class);
    39  
    40         // Input
    41         FileInputFormat.addInputPath(job, inputPath);
    42         job.setInputFormatClass(TextInputFormat.class);
    43  
    44         // Output
    45         FileOutputFormat.setOutputPath(job, outputDir);
    46         job.setOutputFormatClass(TextOutputFormat.class);
    47  
    48         // Delete output if exists
    49         FileSystem hdfs = FileSystem.get(conf);
    50         if (hdfs.exists(outputDir))
    51             hdfs.delete(outputDir, true);
    52  
    53         // Execute job
    54         int code = job.waitForCompletion(true? 0 : 1;
    55         System.exit(code);
    56  
    57     }
    58  
    59 }

    mapper class:
     1 package com.aamend.hadoop.MapReduce;
     2  
     3 import java.io.IOException;
     4  
     5 import org.apache.hadoop.io.IntWritable;
     6 import org.apache.hadoop.io.Text;
     7 import org.apache.hadoop.mapreduce.Mapper;
     8  
     9 public class WordCountMapper extends
    10         Mapper<Object, Text, Text, IntWritable> {
    11  
    12     private final IntWritable ONE = new IntWritable(1);
    13     private Text word = new Text();
    14  
    15     public void map(Object key, Text value, Context context)
    16             throws IOException, InterruptedException {
    17  
    18         String[] csv = value.toString().split(",");
    19         for (String str : csv) {
    20             word.set(str);
    21             context.write(word, ONE);
    22         }
    23     }
    24 }

    reducer class:
     1 package com.aamend.hadoop.MapReduce;
     2  
     3 import java.io.IOException;
     4  
     5 import org.apache.hadoop.io.IntWritable;
     6 import org.apache.hadoop.io.Text;
     7 import org.apache.hadoop.mapreduce.Reducer;
     8  
     9 public class WordCountReducer extends
    10         Reducer<Text, IntWritable, Text, IntWritable> {
    11  
    12     public void reduce(Text text, Iterable<IntWritable> values, Context context)
    13             throws IOException, InterruptedException {
    14         int sum = 0;
    15         for (IntWritable value : values) {
    16             sum += value.get();
    17         }
    18         context.write(text, new IntWritable(sum));
    19     }
    20 }




    posted on 2014-09-24 21:48 hqjma 閱讀(85) 評論(0)  編輯  收藏

    只有注冊用戶登錄后才能發表評論。


    網站導航:
     
    <2025年5月>
    27282930123
    45678910
    11121314151617
    18192021222324
    25262728293031
    1234567

    常用鏈接

    留言簿

    隨筆分類

    隨筆檔案

    文章分類

    文章檔案

    搜索

    •  

    最新評論

    閱讀排行榜

    評論排行榜

    主站蜘蛛池模板: 日本无卡码免费一区二区三区| 亚洲日韩中文字幕日韩在线| 亚洲妇女无套内射精| 亚洲精品和日本精品| 日本视频免费高清一本18| 亚洲另类春色校园小说| 免费国产综合视频在线看| 免费视频成人手机在线观看网址| 久久精品国产亚洲AV蜜臀色欲| 免费人成在线观看播放国产| 老司机69精品成免费视频| 亚洲成A人片在线播放器| 亚洲性日韩精品一区二区三区| 一区二区三区观看免费中文视频在线播放| 国产精品亚洲自在线播放页码| 久久久精品国产亚洲成人满18免费网站| 亚洲视频在线观看免费视频| 美美女高清毛片视频黄的一免费 | 亚洲AV无码片一区二区三区| 亚洲中文字幕无码日韩| a毛片基地免费全部视频| 久久久受www免费人成| 中文字幕亚洲综合小综合在线| 久久亚洲精品无码观看不卡| 成年网站免费视频A在线双飞| 国产免费AV片在线观看| 日韩欧美亚洲国产精品字幕久久久| 亚洲av日韩综合一区在线观看| 国产精品视频免费一区二区三区| 一个人看的www免费视频在线观看| 亚洲AV无码一区二区大桥未久| 亚洲韩国在线一卡二卡| 青青草原亚洲视频| 免费无码又爽又刺激高潮的视频| 久久免费视频99| eeuss影院ss奇兵免费com| 亚洲乱码日产精品一二三| 精品无码一区二区三区亚洲桃色 | jzzjzz免费观看大片免费| 亚洲黄页网在线观看| 亚洲视频一区在线观看|