0
現在、Google DataProcのSpark 2.0.0で大きなデータセット(30mio観測値、13変数)でml決定木を実行しようとしています。 私が実行:IllegalArgumentException:u'requirement failed:Google DataProcのSparkで無効な初期容量 '
labelIndexer = StringIndexer(inputCol="Target", outputCol="indexedLabel").fit(data)
私は、次のエラーが表示されます
IllegalArgumentException: u'requirement failed: Invalid initial capacity'
私は、インターネット上でこのエラーについて多くの情報を見つけることができません。誰かが問題の内容と解決方法を教えてください。