Hadoop Graph 输入 - 链接作业

Hadoop Graph input - Chaining Jobs

提问人:user846445 提问时间:3/24/2015 最后编辑:Nithinuser846445 更新时间:4/4/2015 访问量:988

问:

我有一个以下格式的输入文件。

input.txt
1, 1   2
2, 1   3
3, 2   3
4, 1   4 

上面的输入文件有一个键,它是行号,值是无向图的图形边缘。例如,对于第一条记录,行号为 1,边在 1 和 2 之间。在地图逻辑中,我必须找到哪个顶点具有低阶度数。我该怎么办。请帮助我,因为我是Hadoop-mapreduce的新手。

Hadoop Graph MapReduce BigData Hadoop2

评论


答:

0赞 Nithin 3/25/2015 #1

为了识别图中度数最低的顶点,我们有两个实现两个作业。这称为Hadoop MapReduce编程中的链式作业

工作 1

作业 1 将计算每个顶点的度数。Reducer 会将输出保存到 HDFS 文件夹中。

约伯记 2

作业 2 将读取作业 1 的输出作为输入,并找到度数最低的顶点。

请在下面找到用 JAVA 编写的详细代码。程序的参数是输入文本文件和输出文件

import java.io.IOException;
import java.util.StringTokenizer;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.io.IntWritable;
import org.apache.hadoop.io.LongWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Job;
import org.apache.hadoop.mapreduce.Mapper;
import org.apache.hadoop.mapreduce.Reducer;
import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;
import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;

public class LowestDegreeOfGraph {

    public static class Map extends Mapper<LongWritable, Text, Text, IntWritable> {
        private final static IntWritable one = new IntWritable(1);  

        @Override
        public void map(LongWritable key, Text value, Context context) throws IOException, InterruptedException {
            Text word = new Text();
            String line = value.toString();
            StringTokenizer tokenizer = new StringTokenizer(line);
            while (tokenizer.hasMoreTokens()) {
                word.set(tokenizer.nextToken());
                context.write(word, one);
            }                       
        }   
    }


    public static class MapForFindingLowDegree extends Mapper<LongWritable, Text, Text, Text> {


        @Override
        public void map(LongWritable key, Text value, Context context) throws IOException, InterruptedException {
            Text word = new Text();
            String[] line = value.toString().split("\t");

            context.write(new Text("vertexWithLowestDegree"), new Text(line[0]+","+line[1]));                   
        }   
    }


    public static class Reduce extends Reducer<Text, IntWritable, Text, IntWritable> {


        @Override
        public void reduce(Text key, Iterable<IntWritable> values, Context context) throws IOException, InterruptedException {
            int sum = 0;
            for (IntWritable value : values) {
                sum += value.get();             
            }

            context.write(key, new IntWritable(sum));           

        }       

    }

public static class ReduceForFindingLowDegree extends Reducer<Text, Text, Text, Text> {


        @Override
        public void reduce(Text key, Iterable<Text> values, Context context) throws IOException, InterruptedException {
            int flag = 0;
            int vertex=0;
            int degree=0;
            for (Text value : values) {
                String[]    line=value.toString().split(",");
                if(flag==0){
                    vertex=Integer.parseInt(line[0]);
                    degree=Integer.parseInt(line[1]);
                    flag=1;
                }else if(degree>Integer.parseInt(line[1])){
                    vertex=Integer.parseInt(line[0]);
                    degree=Integer.parseInt(line[1]);
                }
            }

            context.write(new Text("Vertex with the lowest degree "+vertex),new Text("Degree "+degree));            

        }       

    }



    public static void main(String[] args) throws Exception {


        Configuration conf=new Configuration();
        conf.set("fs.default.name", "hdfs://localhost:8020");
        Job job = new Job(conf);
        job.setJarByClass(LowestDegreeOfGraph.class);
        job.setJobName("For calculating the degree for every vertex");
        FileInputFormat.addInputPath(job, new Path(args[0]));
        FileOutputFormat.setOutputPath(job, new Path("/opt/"));
        job.setMapperClass(Map.class);
        job.setReducerClass(Reduce.class);
        job.setOutputKeyClass(Text.class);
        job.setOutputValueClass(IntWritable.class);
        job.waitForCompletion(true);    

        Job job2 = new Job(conf);
        job2.setJarByClass(LowestDegreeOfGraph.class);
        job2.setJobName("Identifying the Vertex with lowest degree");
        FileInputFormat.addInputPath(job2, new Path("/opt/"));
        FileOutputFormat.setOutputPath(job2, new Path((args[1])));
        job2.setMapperClass(MapForFindingLowDegree.class);
        job2.setReducerClass(ReduceForFindingLowDegree.class);
        job2.setOutputKeyClass(Text.class);
        job2.setOutputValueClass(Text.class);
        job2.waitForCompletion(true);   

    }




}

arg[0] 是输入文件。PFB 示例输入文件。 示例输入文件 1 2 1 3 2 3 1 4

arg[1] 是输出文件的位置。

请在运行 JOB 时提供 arg[0] 和 arg[1]。

/opt 是用于存储临时数据的临时位置。

评论

0赞 user846445 4/1/2015
嗨,Nithin,我正在努力。你能在行代码中添加注释吗?我不清楚,每一步的输入是什么。帮助将不胜感激。
0赞 user846445 4/3/2015
Nithin,你能不能在每个映射器和减速器上提供输入和输出。
0赞 Nithin 4/4/2015
输入和输出的答案已更新。如果您有任何疑问,请告诉我。如果答案正确,请接受
0赞 user846445 4/5/2015
抛出 Arrays out out out 异常并生成第一个 reducer 输出,但未生成第二个 reducer 输出。
0赞 Nithin 4/6/2015
数组出绑定异常意味着输入文件中可能包含额外的新行。请删除新行并重新执行程序。每当执行map reduce程序时,都必须为每个reducer提供新的输出路径