2017-08-16 9 views
0

私はアプリケーションでシナリオを持っています。長期実行ETLプロセス - バックグラウンドジョブ、Spark、Hadoop

  1. HTTP/JSON WebサービスといくつかのFTP
  2. は、それらのデータを処理し、中央データベース(Postgresqlの)に配置する必要がありますされている
  3. (10以上)、複数のソースからデータをロードするためにほとんどのソースを持って

現在の実装は、バックグラウンドジョブを使用してRubyで実行されます。しかし、私はそれに続く問題を見る。

  1. 非常に高いメモリ使用量
  2. ジョブズは
  3. 水平スケーリングは、このシナリオではないセットアップ

にトリッキーで、どのような方法SparkまたはHadoopのが、助けたり、より良いことができます任意のエラーレポートなしで時々立ち往生オプション。

いくつかの良い推論をしてください。

更新: コメントごとに、私はさらに詳しく説明する必要があります。ここで私がSparkやHadoopと思った点があります。

  1. 実行中のジョブの並行性を調整すると、DBサーバーの負荷も大きくなります。私は読んでいたが、SparkとHadoopはDB側でもこのような重い負荷に直面するように構築されている。
  2. Rubyの並行処理は実際にはGILに依存していますが、実際には並行処理はサポートされていません。したがって、各ジョブは単一の中央データソースをフェッチすることができます.IOコールにスタックされていれば、ソースはロックされます。

上記のすべての点は、Hadoopの組み込みアーキテクチャの一部であると考えられています。& Spark。だから私はこれらのツールを調べるためにラインを考えていた。

+1

これは奇妙な質問です。私はRuby、Spark、Hadoopを使用する場所で働いています。私はそれらがアーキテクチャ的に互換性がないと言うことができます。ハープープベースのソリューションが全体的にあなたの状況に適しているかどうかにかかわらず、あなたが言及した問題は、適切に設計されたRubyシステムで解決できます。それがどのように構築され、人々があなたを助けることができるかについての詳細を提供する。 –

+0

@MarkThomasあなたは、主にアプリケーションのシナリオに基づいて意見を募集した質問です。質問を編集して、それに多くの考えを加えてみましょう。 –

+0

resque-retryプラグインでResqueを試してみてください。小さいジョブの場合は、resque-multi-job-forksプラグインも必要です。 (本当に必要な場合にはスケーリングのためのresque-kubernetes) –

答えて

0

私の意見では、私はPentaho Data Integrator(PDI)(またはTalend)を試してみます。

あなたのような問題を解決するためのビジュアルツールです。無料版のダウンロード形式SourceForge(解凍してspoon.batボタンを押してください)を持ってください。

これらは、FTPやHTTPなどからデータを取得したり、JSONをデコードしたり、Postgresのようなデータベースに書き込むことができます。 PDIには、すぐにRubyコードを実行できる無料のプラグインが用意されているので、スタートアップ開発を保存することができます。

PDIはまた、既製のスパークとHadoopのインタフェースを持っているので、あなたがより多くの金属ソリューションを必要とする場合は、後の段階で透過的にあなたのHadoop /輝きサーバを実装することができます。

PDIは大量のデータロード用に構築されており、並行性とリモートサーバーを制御できます。

関連する問題