1
私は任意のデータセットでDataframeマップ関数を使用しようとしています。しかし、私は行 - >行からマップする方法を理解していません。何の例は、スパーク、SQLドキュメントの任意のデータのために与えられていない:エンコーダのいくつかの並べ替えが存在する必要があるので、Spark SQLの任意の行を持つデータセットのマップを使用
Dataset<Row> original_data = ...
Dataset<Row> changed_data = original_data.map(new MapFunction<Row,Row>{
@Override
public Row call(Row row) throws Exception {
Row newRow = RowFactory.create(obj1,obj2);
return newRow;
}
}, Encoders.bean(Row.class));
しかし、これは動作しませんか? 一般的な行にどのようにマップできますか?
obj1とobj2の種類は何ですか?それは基本的なデータ型ですか? –
MapはRDD関数で、Spark SQLでは "select"と "with column"を使用するようにしてください...もしあなたがチャンスを持っていれば、Scalaでこれを簡単にコーディングしようとするべきです... – Victor