2016-04-26 7 views
0

私はFlinkを初めてお使いになり、現在、Sparkのコード例の一部をFlinkに変換しています。 JavaSparkContextのFlinkでの並列化メソッドと同じ機能は何ですか? JavaSparkContext.parallelize()Spark to Flink並列化メソッド

JavaRDD<Integer> workload = ctx.parallelize(Arrays.asList(init_val), parallel).map(new Function<Integer, Integer>() { 
     @Override 
     public Integer call(Integer s) throws InterruptedException { 
     Thread.sleep(s * 1000); 
     return 0; 
     } 
    }); 

答えて

0

FLINKの相当ExecutionEnvironment.fromCollection()です:私は、次のコードを変換しようとしました。あなたはExecutionEnvironmentによって提供さfromCollectionメソッドを使用します

// get execution environment 
ExecutionEnvironment env = ExecutionEnvironment.getExecutionEnvironment(); 

// create data set from collection 
DataSet<Integer> input = env.fromCollection(Arrays.asList(init_val)); 
// apply map function 
DataSet<Integer> result = input.map(new MapFunction<Integer, Integer>() { 
    @Override 
    public Integer map(Integer s) { 
    Thread.sleep(s * 1000); 
    return 0; 
    } 
}).setParallelism(parallel); // set parallelism of map function 
0

だからあなたのコードスニペットは次のように変換する必要があります。

ExecutionEnvironment env = ExecutionEnvironment.getExecutionEnvironment(); 
DataSet<Integer> input = env.fromCollection(inputList); 
関連する問題