sparkの初心者として、この問題でpysparkによってSQLデータフレームに行を挿入する関数が見つかりません。例えば、私は、以下の構造のようなデータフレームを有する:ここでpysparkでSQLデータフレームに行を追加する
+----------+-----+
| Time|Value|
+----------+-----+
|1364763600|115.0|
|1364763601|119.0|
|1364763603|116.5|
+----------+-----+
を、Iは、第2および第3の行の間のデータフレームの行を挿入する、インデックスは、第二列のインデックスを以下、1364763602
であり、その値は、この場合の第2行、119
と同じである必要があり、最後のデータフレームは次のようにすべきである:
+----------+-----+
| Time|Value|
+----------+-----+
|1364763600|115.0|
|1364763601|119.0|
|1364763602|119.0|
|1364763603|116.5|
+----------+-----+
これを達成するための任意の有効な方法があり、実際のデータフレームは、異なるノードに記憶されています。
ありがとう、@Vitaliy Kotlyarenko、私はデータをデータフレームに変換する前に修正しようとします。 –