はOOM

2016-09-12 10 views
0

スパークSQLは次のようである原因:A用はOOM

INSERT INTO new 
SELECT 
~~~ 
FROM A, B 
WHERE 
~~~ (complex join) 

スキーマおよび新しいは同じであり、そしてBは、フィルタリングのためのいくつかのパターンを有しています。 Bのサイズは小さく、ブロードキャストされます。

ローカルテストでOOMエラーが表示されます。

Caused by: java.lang.OutOfMemoryError: GC overhead limit exceeded 
at org.apache.spark.sql.catalyst.expressions.UnsafeRow.copy(UnsafeRow.java:535) 
at org.apache.spark.sql.catalyst.expressions.UnsafeRow.copy(UnsafeRow.java:93) 

私はパーティションを変更しようとしましたが、(spark.shuffle.memoryFractionのような)いくつかの設定が変更されましたが、動作しませんでした。

私はSpark 1.6を使用しています。 ありがとうございます。

答えて

関連する問題