私は糸でスパークストリーミングアプリケーションを実行しています。数日後に問題が発生しました。エラーメッセージは以下の糸リストからです。糸のスパークストリーミング - 物理メモリの限界を超えているコンテナ
Application application_1449727361299_0049 failed 2 times due to AM Container for appattempt_1449727361299_0049_000002 exited with exitCode: -104
For more detailed output, check application tracking page:https://sccsparkdev03:26001/cluster/app/application_1449727361299_0049Then, click on links to logs of each attempt.
Diagnostics: Container [pid=25317,containerID=container_1449727361299_0049_02_000001] is running beyond physical memory limits. Current usage: 3.5 GB of 3.5 GB physical memory used; 5.3 GB of 8.8 GB virtual memory used. Killing container.
そして、ここに私のメモリ構成です:
spark.driver.memory = 3g
spark.executor.memory = 3g
mapred.child.java.opts -Xms1024M -Xmx3584M
mapreduce.map.java.opts -Xmx2048M
mapreduce.map.memory.mb 4096
mapreduce.reduce.java.opts -Xmx3276M
mapreduce.reduce.memory.mb 4096
それはストリーミングプログラムですので、私は、メモリ内のデータを保持していなかったので、このOOMエラーが奇妙である、誰もがそれのように同じ質問に遭遇したのでしょうか?誰が原因か分かっている?
より比例するようにmemoryOverheadを調整することで、あなたは、この上の任意の解像度を取得しましたか? –