千家信息网

MapReduce编程实战1——WorldCout程序编写

发表于:2025-01-23 作者:千家信息网编辑
千家信息网最后更新 2025年01月23日,//mapreduce程序import java.io.IOException;import java.util.StringTokenizer;import org.apache.hadoop.co
千家信息网最后更新 2025年01月23日MapReduce编程实战1——WorldCout程序编写
//mapreduce程序import java.io.IOException;import java.util.StringTokenizer;import org.apache.hadoop.conf.Configuration;import org.apache.hadoop.fs.Path;import org.apache.hadoop.io.IntWritable;import org.apache.hadoop.io.LongWritable;import org.apache.hadoop.io.Text;import org.apache.hadoop.mapreduce.Job;import org.apache.hadoop.mapreduce.Mapper;import org.apache.hadoop.mapreduce.Reducer;import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;public class WordCount {  /**   * TokenizerMapper 继续自 Mapper   *   * [一个文件就一个map,两个文件就会有两个map]   * map[这里读入输入文件内容 以" \t\n\r\f" 进行分割,然后设置 word ==> one 的key/value对]   *   * @param Object  Input key Type:   * @param Text    Input value Type:   * @param Text    Output key Type:   * @param IntWritable Output value Type:   *   * Writable的主要特点是它使得Hadoop框架知道对一个Writable类型的对象怎样进行serialize以及deserialize.   * WritableComparable在Writable的基础上增加了compareT接口,使得Hadoop框架知道怎样对WritableComparable类型的对象进行排序。   *   * @ author liuqingjie   *   */  public static class TokenizerMapper       extends Mapper{    private final static IntWritable one = new IntWritable(1);    private Text word = new Text();    public void map(LongWritable key, Text value, Context context) throws IOException, InterruptedException {      StringTokenizer itr = new StringTokenizer(value.toString());      while (itr.hasMoreTokens()) {        word.set(itr.nextToken());        context.write(word, one);      }    }  }  /**   * IntSumReducer 继承自 Reducer   *   * [不管几个Map,都只有一个Reduce,这是一个汇总]   * reduce[循环所有的map值,把word ==> one 的key/value对进行汇总]   *   * 这里的key为Mapper设置的word[每一个key/value都会有一次reduce]   *   * 当循环结束后,最后的确context就是最后的结果.   *   * @author liuqingjie   *   */  public static class IntSumReducer       extends Reducer {    private IntWritable result = new IntWritable();    public void reduce(Text key, Iterable values,                       Context context                       ) throws IOException, InterruptedException {      int sum = 0;      for (IntWritableval : values) {        sum += val.get();      }      result.set(sum);      context.write(key, result);    }  }  public static void main(String[] args) throws Exception {    Configuration conf = new Configuration();        if (args.length != 2) {            System.err.println("请配置路径  ");            System.exit(2);        }    Job job = new Job(conf, "wordcount");    job.setJarByClass(WordCount.class);//主类        job.setMapperClass(TokenizerMapper.class);//mapper    job.setReducerClass(IntSumReducer.class);//reducer        job.setMapOutputKeyClass(Text.class);//设置map输出数据的关键类    job.setMapOutputValueClass(IntWritable.class);//设置map输出值类        job.setOutputKeyClass(Text.class);//设置作业输出数据的关键类    job.setOutputValueClass(IntWritable.class);//设置作业输出值类        FileInputFormat.addInputPath(job, new Path(otherArgs[0]));//文件输入    FileOutputFormat.setOutputPath(job, new Path(otherArgs[1]));//文件输出        System.exit(job.waitForCompletion(true) ? 0 : 1);//等待完成退出.  }}


编写过程分析:

(1)数据类型

整型:IntWritable, 这是Hadoop对int的封装

字符串型:Text,这是Hadoop对String的封装

上下文对象:Context,它用来与MapReduce系统进行通信,如把map的结果传给reduce处理

(2)执行过程

分为两个阶段:map阶段和reduce阶段, 以key/value为输入输出,其中key、value的类型可以由程序员自定义。

map编写:

自定义一个类,继承于基类Mapper,该基类是一个泛型,有4个形参类型:用来指定map函数的输入键、输入值,输出键、输 出值,格式如下:public class Mapper<KEYIN,VALUEIN,KEYOUT,VALUEOU>。

根据实际需要,重写map函数,函数类型由Mapper指定。每一对调用一次map函数

wordcount程序中,map方法中的value值存储的是文本文件中的一行,key值为该行的首字符相对于文本文件首字符的偏移量,在本程序中,key值未使用。StringTokenizer类是将每一行拆分为一个个的单词。

reduce编写:

自定义一个类,继承于基类Reducer,该基类是一个泛型,有4个形参类型:用来指定reduce函数的输入键、输入值,输出键、输出值,格式public class Reducer,其中reduce的输入类型必须与map的输出类型一致。

根据实际需要,重写reduce方法,方法的类型由Reducer指定。每一个key调用一次reduce方法。

主函数编写:

在主函数中进行作业的配置,主要配置有:

    Job job = new Job(conf, "word count");    job.setJarByClass(WordCount.class);//主类        job.setMapperClass(TokenizerMapper.class);//mapper    job.setReducerClass(IntSumReducer.class);//reducer        job.setMapOutputKeyClass(Text.class);//设置map输出数据的关键类    job.setMapOutputValueClass(IntWritable.class);//设置map输出值类        job.setOutputKeyClass(Text.class);//设置作业输出数据的关键类    job.setOutputValueClass(IntWritable.class);//设置作业输出值类        FileInputFormat.addInputPath(job, new Path(otherArgs[0]));//文件输入    FileOutputFormat.setOutputPath(job, new Path(otherArgs[1]));//文件输出        System.exit(job.waitForCompletion(true) ? 0 : 1);//等待完成退出.

(3)数据处理过程

1)将文件拆分为splits,并由MapReduce框架自动完成分割,将每一个split分割为

2)每一调用一次map函数,处理后生产新的,由Context传递给reduce处理

3)Mapper对对进行按key值进行排序,将key值相同的value进行合并。最后得到Mapper的最终输出结果

4)reduce处理,处理后将新的输出。


0