ローカルドライブにデータフレームをCSVファイルとして保存しようとしています。しかし、私がそうすると、フォルダが生成され、そのパーティション内にファイルが書き込まれます。これを克服するための提案はありますか?Sparkで単一の(通常の)csvファイルとしてデータを書き込む方法は?
私の要件: コードで指定された実際の名前で通常のcsvファイルを取得するには:
コードスニペット: dataframe.coalesce(1).write.mode("overwrite").format("com.databricks.spark.csv").option("header", "true").csv("E:/dataframe.csv")