2017-09-07 17 views
1

私の雇用主はMongoDB、Redshift、Sparkに大きなジャンプをしています。私は積極的に取り組み、これらの技術のそれぞれに手を差し伸べようとしています。 「Apache Sparkを使用してデータをMongoDBからRedShiftに移動するデータパイプラインを作成する」Apache-Sparkを使用したRedshiftへのMongoDBデータパイプライン

これまで私は開発版をダウンロードすることができましたテスト用のRedshiftインスタンスを作成します。どのように私は残りのプロセスを設定し、私の足を濡らすために行くのですか?

私はApache Sparkを使用してデータパイプラインを作成することを理解していますが、ScalaまたはPythonまたはJavaでコード化する必要があります。私はSQLを十分に理解していますので、Scala、Python、Javaのどの言語から簡単に学べるかをお気軽にお聞かせください。

私の背景はデータウェアハウス、伝統的なETL(Informatica、Datastageなど)です。

は、事前にありがとう:)

答えて

0

A本当に良いアプローチを使用すると、ターゲット・エンドポイント

としてソースエンドポイントと赤方偏移ようにMongoDBを指定することができます

TML http://docs.aws.amazon.com/dms/latest/userguide/CHAP_Source.MongoDB.h AWSデータ移行サービスを使用することであってもよいです

関連する問題