私はスパークジョブを実行しています。 すべてのジョブが完了して表示された後にスパークジョブが再開しました。(TimeoutException:先行ジョブが[300秒後にタイムアウトしました]
ただし、数分後にジョブ全体が再開されますが、今回はすべてのジョブとタスクが完了したことが表示されますが、数分後に失敗します。私は結果にshow(100)
を実行すると、図3(b)行の1つ、第二は200M行です:これは私が2つのかなり大きなテーブルを結合しようとしているときに発生
java.util.concurrent.TimeoutException: Futures timed out after [300 seconds]
: 私は、ログにこの例外を見つけましたデータフレーム、すべてが評価され、私はこの問題を抱えています。
パーティションの数を増減することで試してみましたが、ガベージコレクタをスレッド数を増やしてG1に変更しました。 spark.sql.broadcastTimeout
を600に変更しました(タイムアウトメッセージを600秒に変更しました)。
これは通信上の問題かもしれませんが、このコードセグメントの前で動作する他のshow()
句は問題なく動作するため、おそらくそれはそうではありません。
/opt/spark/spark-1.4.1-bin-hadoop2.3/bin/spark-submit --master yarn-cluster --class className --executor-memory 12g --executor-cores 2 --driver-memory 32g --driver-cores 8 --num-executors 40 --conf "spark.executor.extraJavaOptions=-XX:+UseG1GC -XX:ConcGCThreads=20" /home/asdf/fileName-assembly-1.0.jar
あなたが火花のバージョンについてのアイデアを得ることができ、そこから使用するリソース:
これはsubmitコマンドです。
どこから行くのですか?どんな助けも高く評価され、コードセグメント/追加のログが必要に応じて提供されます。
こんにちは@ilcord、あなたは問題を解決することができましたか? – dbustosp
はい。私の答えを参照してください – ilcord