5
私はsparkを使用してamazon s3(DataFrameまたはRDDの形式)からファイルを取得し、単純な変換を行い、そのファイルをDynamoDBのテーブルに送信しようとしています。SparkからDynamoDBへの書き込み
他のいくつかのフォーラム投稿を読んだところ、DynamoDBへの読み書きには、spoのRDDとは異なるhadoopRDDを使用する必要があり、s3を取得しているものとは異なりますファイル。
DataFrame/RDDをs3のファイルからhadoopRDDに変更してバックアップを送信する方法を教えてください。
私はスカラを使用しており、スパークシェルのすべてをテストしています。
もう一度お返事ありがとうございます。
こんにちは@ウィルスは、spark-scalaでrddをhadoopRDDに変換するソリューションを手に入れましたか? – Yogesh