Hadoopにヒットし、ローカルのWindowsマシンにデータを抽出するプロセスを作成しようとしています。私は正常にODBCで作成し、接続をテストすることができました。さらに調査すると、Microsoft Hive ODBCを使用する必要があることがわかりましたが、接続のテストを成功させることができませんでした。私はさまざまなツールを使用していますが、私がしようとしていることを達成するための最良の方法についてのご意見をお待ちしています。私が探しているデータは、ftpサーバ上にも存在し、Hadoopにロードされているので、ftpサーバから取得できますが、Hadoopから取得します。私はHadoopにまったく新しいものです。私は調査して読んでいますが、解決策を見つけることはできませんでした。私は解決策があることを知っている、私はちょうど正しい場所で探していない、誰かが正しい方向に私を指すことができますか?Hadoopのデータ抽出
0
A
答えて
0
は私のローカルのWindowsマシンにHadoopのデータを抽出を打つ
最初の提案:私は成功したODBC上で作成し、接続をテストすることができました
Apacheのスパーク
HadoopはODBCを提供していません...ハイブは
さらに私は、ODBCマイクロソフトハイブを使用するために必要なことがわかっ研究する
は、Azureの中にあなたのデータか?それは私が、私はあまりがあることを
を行うにしようとしています何を達成するための最良の方法にいくつかの入力をしたいと思い
を伝えることができる限り、あなたは、Microsoftのドライバを使用しているだろう唯一の理由です不明な点...これまでODBCでアクセスできないSQLツールをご紹介しました...
ハイブにデータを格納する場合、JDBC/ODBCは正常に動作しますが、 Hadoop内にあるYARNクラスター上で実行します。
個人的に私は、FTPサーバからそれを得ることができず、むしろHadoopの
からそれを引っ張るだろう、私はあなたがより正確に(、Hadoopの
- のHadoopからそれを得るお勧めしませんHDFS)がFTPの代わりではありません
- ファイルがFTP内で正常に保存されるために「十分に小さい」場合、HDFSは大きなファイルを扱うように最適化されているため、HDFSに抽出する理由はほとんどありません。
- あなたはhadoopの初心者です。あなたは簡単にFTPファイルを引き出すことができます。
第二の提案:あなたはHadoopのエコシステム内のツールを使用して設定し、死んで、明示的にHDFSは、GetFTP processor提供Apache Nifiプロジェクトを試していない場合。
関連する問題
- 1. 抽出データ
- 2. 抽出データ
- 3. 抽出データ
- 4. データ抽出DB2
- 5. 抽出データ
- 6. 抽出データ
- 7. 抽出データ
- 8. データ抽出
- 9. 抽出データ
- 10. Xbrlデータ抽出
- 11. 抽出データは
- 12. 抽出データ
- 13. JSONデータの抽出 -
- 14. 抽出データ - Pythonの
- 15. バーコードスキャナのデータ抽出
- 16. 抽出データはLaravel
- 17. 抽出PingdomののAPIデータ
- 18. Web ::クエリとデータの抽出
- 19. Revitジャーナルファイルのデータ抽出
- 20. Excelでのデータ抽出
- 21. json APIデータの抽出
- 22. ウェブからのデータ抽出
- 23. SQLテーブルとデータの抽出
- 24. Python Pandasでのデータ抽出
- 25. PDFからのデータ抽出
- 26. Beautifulsoup4 Pythonのデータ抽出
- 27. Revitモデルのデータ抽出
- 28. 抽出JSONデータPHPのログファイル
- 29. テキストファイルからのデータ抽出
- 30. ウェブサイトからのデータ抽出
私はあなたが非常にうんざりしていると思います。あなたの主な質問は何ですか?ポイントが何であるかを定義するには、同僚と話をすることをお勧めします。 – hiropon