Spark Notebookを実行して、DataFrameをBluemixオブジェクトストレージのパーケットファイルとして保存しています。BluemixオブジェクトストレージのParquetファイルをApache Sparkノートブックで上書きする
ノートブックを再実行するときに、パーケットファイルを上書きします。しかし、実際にはデータを追加するだけです。 iPythonコードのサンプル以下
:
df = sqlContext.sql("SELECT * FROM table")
df.write.parquet("swift://my-container.spark/simdata.parquet", mode="overwrite")
私は次のように試しましたここで説明したように [Spark SQL Save Modes](http://spark.apache 。/ docs/latest/sql-programming-guide.html#save-modes) これはまだ追加されています:/ –
urは4040ポートに移動し、実行中のジョブを確認できます –
ur code tht追加するデータを最初に書き込みます。 –