1
です。hadoop mongodbプラグインコネクタからmongodbデータを読み込み、mapreduce hadoopでデータを処理し、出力がhadoop mongodbプラグインコネクタを使用せず、mapreduce hadoopの結果をそのまま残すことができます、hdfsで?hadoop mongodb connector - 出力データがmongodbではなくhdfs
です。hadoop mongodbプラグインコネクタからmongodbデータを読み込み、mapreduce hadoopでデータを処理し、出力がhadoop mongodbプラグインコネクタを使用せず、mapreduce hadoopの結果をそのまま残すことができます、hdfsで?hadoop mongodb connector - 出力データがmongodbではなくhdfs
私はこの前の答えはSOマイナーチェンジで、あなたの質問に答えると思う:
Is it possible to read MongoDB data, process it with Hadoop, and output it into a RDBS(MySQL)?
主な違いは、あなたのような何かにOutputFormatClassを設定するだろうということです。
job.setOutputFormatClass(SequenceFileOutputFormat.class);
また、データを保存するHDFSの出力パスを設定する必要があります。完全なコード例についてはWordCountの例を参照してください。ただし、MongoOutputFormatではなく出力形式として上記を使用してください。
私はちょうど私があなたに尋ねた人であったという質問を理解しました。基本的に出力フォーマットが少し違っているのと同じ質問です。 –