Pregunta Hadoop reductor no siendo llamado


todas

Tengo un mapa simple / reducir la implementación. Se llama al asignador y hace su trabajo, pero el reductor nunca se llama.

Aquí está el mapeador:

static public class InteractionMap extends Mapper<LongWritable, Text, Text, InteractionWritable> {

    @Override
    protected void map(LongWritable offset, Text text, Context context) throws IOException, InterruptedException {
        System.out.println("mapper");
        String[] tokens = text.toString().split(",");
        for (int idx = 0; idx < tokens.length; idx++) {
            String sourceUser = tokens[1];
            String targetUser = tokens[2];
            int points = Integer.parseInt(tokens[4]);
            context.write(new Text(sourceUser), new InteractionWritable(targetUser, points));
            }
        }
    }
}

Aquí está mi reductor:

static public class InteractionReduce extends Reducer<Text, InteractionWritable, Text, Text> {

    @Override
    protected void reduce(Text token, Iterable<InteractionWritable> counts, Context context) throws IOException, InterruptedException {
        System.out.println("REDUCER");
        Iterator<InteractionWritable> i = counts.iterator();
        while (i.hasNext()) {
            InteractionWritable interaction = i.next();
            context.write(token, new Text(token.toString() + " " + interaction.getTargetUser().toString() + " " + interaction.getPoints().get()));
        }
    }

}

Y, aquí está la parte de configuración:

@Override
public int run(String[] args) throws Exception {
    Configuration configuration = getConf();
    Job job = new Job(configuration, "Interaction Count");
    job.setJarByClass(InteractionMapReduce.class);
    job.setMapperClass(InteractionMap.class);
    job.setCombinerClass(InteractionReduce.class);
    job.setReducerClass(InteractionReduce.class);
    job.setInputFormatClass(TextInputFormat.class);
    job.setOutputFormatClass(TextOutputFormat.class);
    job.setOutputKeyClass(Text.class);
    job.setOutputValueClass(Text.class);
    FileInputFormat.addInputPath(job, new Path(args[0]));
    FileOutputFormat.setOutputPath(job, new Path(args[1]));
    return job.waitForCompletion(true) ? 0 : -1;
}

¿Alguien tiene alguna idea de por qué no se invoca al reductor?


5
2017-10-01 15:40


origen


Respuestas:


Ok, fue mi culpa, como esperaba. La configuración del trabajo no era buena. Así es como debería verse:

Configuration configuration = getConf();

Job job = new Job(configuration, "Interaction Count");
job.setJarByClass(InteractionMapReduce.class);
job.setMapperClass(InteractionMap.class);
job.setReducerClass(InteractionReduce.class);
job.setMapOutputKeyClass(Text.class);
job.setMapOutputValueClass(InteractionWritable.class);
job.setOutputKeyClass(Text.class);
job.setOutputValueClass(Text.class);

FileInputFormat.addInputPath(job, new Path(args[0]));
FileOutputFormat.setOutputPath(job, new Path(args[1]));

return job.waitForCompletion(true) ? 0 : -1;

El problema ocurrió porque las fases de mapeo y reducción tienen diferentes tipos de salida. El trabajo falló silenciosamente después de invocar el método context.write. Entonces, lo que tuve que agregar son estas líneas:

job.setMapOutputKeyClass(Text.class);
job.setMapOutputValueClass(InteractionWritable.class);
job.setOutputKeyClass(Text.class);
job.setOutputValueClass(Text.class);

6
2017-10-03 13:43



  1. Espero que text en tus Mapper El método tiene algunos datos.
  2. ¿Realmente necesitas el Reducer ser el Combiner así como el Reducer?

Siempre tengo una clase principal InteractionMapReduce y dentro tengo el InteractionMap y el InteractionReduce clase.

Así que mientras configura el Mapper y el Reducer clase en el trabajo, los puse como InteractionMapReduce.InteractionMap.class y InteractionMapReduce.InteractionReduce.class.

No sé si esto te ayudaría, pero podrías intentarlo.


0
2017-10-01 15:51