hdfs

    0

    1答えて

    何が変わったのか、突然このエラーが発生しました。 Hdfsはドッキング・クラスタ(1 rm + 2ノード)上で実行されています。 は、コンテナ内で正常に動作するため、データノードに問題はありません。 ホストマシンからhdfsにファイルをコピーするときに、コードまたはhdfsコマンドでスローされます。 エラースタックはhadoop-root-namenode-master.logからのものです。 2

    0

    1答えて

    ファイルがあまりにも重くなりたくない hdfsファイルの数が制限を超えたため、私は過去にエラーが発生しました ディレクトリの数が最大ファイル数に含まれていると思われます。 のでI want to partitioned table with one file not directory私が知っているパーティションの ディレクトリ: /test/test.db/test_log/create_dat

    0

    1答えて

    package com.Main; import java.io.BufferedInputStream; import java.io.FileInputStream; import java.io.IOException; import java.io.InputStream; import java.io.OutputStream; import java.net.URI;

    0

    2答えて

    通常、私たちはjavaファイルへの入力として1つのテキストファイルを与えます(単純な単語カウントの問題の場合など)。その代わりに、私は与えたい100のcsvファイルを持っています(すべてのファイルを1つのファイルにマージすることはできません)。与えられた100株の最大/最小株価変動を予測しようとすると、各csvファイルは一意です。 したがって、csvファイルのフォルダ全体をjavaプログラムへの入

    -1

    1答えて

    Javaで書かれたSparkジョブから、特定のhdfsファイルにアクセスできるすべてのlinux/centosユーザのリストを取得しようとしています。 すべてのポインタが役立ちます。 現在、情報を取得するためにJavaコードの下にトーリングされていますが、機能していません。 result = Shell.execCommand( "sudo"、 "bash"、 " - c"、 "lid"、 "-g

    0

    1答えて

    : oozie.libpath=${nameNode}/user/usernamexxx/share/lib oozie.use.system.libpath=true を(クラスタのoozieジョブの多くは、この設定を使用)、HDFSの複製因子は、3よりもはるかに高いこと、さらには、すべてのノード間ですべきですか?

    0

    1答えて

    私はHadoop 2.8.1を使用していますが、ファイルサイズに関する問題に直面しています。問題はについて何ができるか 599.0 G/ : Size Used Available Use% 4.6 T 3.8 T 861.6 G 82% hdfs dfs -du -s -h /ながら印刷するこの: コマンドhdfs dfs -df -hは、次の結果を出力しますか?

    0

    1答えて

    入力/出力がローカルファイルシステムの場合、MapReduce処理はどのように機能しますか? MapReduceジョブの実行は、Hadoopクラスタ全体で非同期に行われますか? はいの場合、どうなりますか? 私たちは実際にこのアプローチを使用する必要がありますか? (それは、ローカルシステムではなく、クラスタ内の低効率になるように効率の唯一の問題)

    1

    1答えて

    TL; DR - Sqoopが使用する日付形式を変更することはできますか? Sqoop(バージョン1.4.6)を使用してSQL Serverからデータをインポートしていて、datetime列をmy --check-columnとして指定しています。 Sqoopは、yyyy-MM-ddd hh:mm:ss.SSSの形式で日付を使用してデータベースにクエリを実行しています。ただし、SQLサーバーは英国