phoenix(完全なテーブルとクエリを使用)からDataFrameとDataset(Spark 2.0)を読み込み、DataFrameとDataset (Spark 2.0で)phoenixへ、Apache Sparkでjavaで。 javaにはこれに関する文書化された例はありません。Apache SparkでJavaのApache Phoenixを読み書きする方法
また可能な場合はphoenixConfigurationUtilを使用して入力クラスと入力クエリを設定し、sparkContextからnewAPIHadoopRDDを読み込み、別の方法でsqlContext.read().foramt("jdbc").options(pass a map with configuration keys like driver,url,dbtable).load()
を使用してもう1つの方法sqlContext.read().format("org.apache.phoenix.spark").option(pass a map with configuration keys like url,table).load()
を使用して読み取ります。
検索中に、Spark 1.6のdataFramesに関するその他の質問でこれらの方法を見つけましたが、例は完全ではありませんでしたが、これらのメソッドはビット単位でのみ存在していました。 Spark 2.0のサンプルを見つけることができなかった
は、あなたが他の例を提供することができますまた、私の質問でsqlcontextを使って述べたようにphoenixから読み込む方法もあります。また、DataFrameFunctionsクラスのsaveToPhoenixメソッドの使用やdataFrameの使用などの方法もあります。書きます()。それは本当に私が読んで書くことができる2つまたは3つの方法を知りたいだけの役に立ちます。私はちょっとしたものしか見ていませんが、完全な例はありません。 – Kiba
@snsancarまたSpark 2.0データセットの例 – Kiba
@snsancarはすばやく返信してくれてありがとうございますが、あなたが与えたリンクの例はRDDです。私はDataFramesとDatasetで読み書き操作をしたいと思っていました。答えは役に立たないです。私はすでにドキュメントに書かれているものを見ています。彼らはスカラーです。私はJavaで欲しかった。 – Kiba