私はdynamodbにsparkでdataframeを書きたいと思っています。 だから私はrdd.saveAsHadoopDataset(JobConf)
を使用しています。しかし、rddタイプはmismatch.itです。これは、タイプがhadoopRDDのrddです。私はrddにデータフレームを変換するのが好きです。df.rdd
はhadodopRDDではなくrddです。私はspark-scala APIを使用しています.DyanmodbにDataframeを書き込むより良い方法があれば、それは役に立つでしょう。SparkのDataFrameをHadoopRDDに変換する方法
1
A
答えて
1
RDDを変換する必要はありません。
Hadoop APIはキーと値のペアを中心に構成されているため、SparkはデータがTuple2
オブジェクトに格納されているRDDの周りにPairRDDFunctions(追加の機能を追加)を自動的にラップします。したがって、データをRDD[(T,V)]
に入れるだけでよい場合は、saveAsHadoopDataset
メソッドを利用できます。設定が必要なものは何でも
import org.apache.hadoop.mapred.JobConf
val tupleRDD : RDD[(Int, Int)] = sc.parallelize(Array((1,2), (3,4), (5,6)))
val jobConf = new JobConf()
セット:ここ
は一例です。tupleRDD.saveAsHadoopDataset(jobConf)
0
誰かがspark-scalaからdyanmodbにデータフレームを書きたい場合は、次に、以下のことが役に立つかもしれません。
import com.amazonaws.services.dynamodbv2.document.Item
import com.amazonaws.services.dynamodbv2.document.DynamoDB
var json_arr=df.toJSON.collect() //Convert dataframe to json array
val table = dynamoDB.getTable("table_name") //dynamoDB is connection to dynamodb
for (element <- json_arr) {
val item = Item.fromJSON(element)
table.putItem(item)
}
+0
dynamoDBはどのようにインスタンス化されましたか? –
関連する問題
- 1. Spark DataFrameをJavaのPOJOのRDDに変換する方法
- 2. SparkのJavaPairInputDStreamをDataSet/DataFrameに変換する方法
- 3. Spark DataframeをJSONObjectに変換する方法
- 4. spark dataframeをArray [String]に変換する
- 5. Java ResultSetをSpark DataFrameに変換する
- 6. Spark DataframeをXMLファイルに変換する
- 7. Spark 2.0 - DataFrameをDataSetに変換する
- 8. PysasarkでPandas DataframeをSpark Dataframeに変換するTypeError
- 9. Spark - RDD [Vector]を可変列のDataFrameに変換する
- 10. Scala/SPARKでDataframeをRDDに変換する効率的な方法は?
- 11. Sparkでは、SparseVectorでDataFrameをRDD [Vector]に変換する方法は?
- 12. マップ変換のパフォーマンスspark dataframeとRDD
- 13. IgniteキューをSpark Dataframeに変換するには?
- 14. BigIntを含むRDDをSpark Dataframeに変換する
- 15. DBI/Spark:結果をSpark Dataframeに保存する方法は?
- 16. Spark SQLからscala DataFrameをカラムリストに変換する
- 17. spark scalaでdataframeをハイブテーブルに変換する
- 18. JDBC ResultSetをSpark RDD/DataFrameに変換する
- 19. Spark/Scalaで配列[行]をDataFrameに変換する
- 20. joda.DateTimeのケースクラスのDStreamをSpark DataFrameに変換します
- 21. Spark DataFrameでnull値を空の配列に変換します
- 22. SparkでDataFrameスキーマのDateType変換を定義する
- 23. pandas、DataFrameをMultiIndex'ed DataFrameに変換する
- 24. Spark Dataframe列の値を変更する
- 25. JSONをPythonのDataframeに変換する方法
- 26. クラスターマップのPandas DataFrameをMultiIndexedフォームに変換する方法は?
- 27. Spark DataFrameの行の値を列にマップする方法は?
- 28. Spark Dataframe列を文字列配列の単一の列に変換する方法
- 29. regexpを使用してSpark DataFrameの文字列を置き換える方法
- 30. Python3でdataframeをdictに変換する方法
答えてくれてありがとう。上のspark-Scalaの例はありますか?実際には私はスパークの初心者ですので、それは役立つでしょう。事前にありがとうございます。 – Yogesh
どのような種類のRDDが動作するかの例を追加しました。 – jamborta