7
私はSpark 1.3を使用しています。Spark DataFrameの各行に機能を適用
データフレームの各行に関数を適用したいと思います。この関数は、行の各列をハッシュし、ハッシュのリストを返します。
dataframe.map(row => row.toSeq.map(col => col.hashCode))
このコードを実行すると、NullPointerExceptionが発生します。私はこれがSPARK-5063に関連していると仮定します。
ネストマップを使用せずに同じ結果を達成する方法は考えられません。