誰かが、カスタムApache Phoenix SQLクエリを実行し、そのクエリの結果をRDDまたはDFに格納する方法について、pysparkを使用している例を提供できますか。注:RDDに読み込むテーブル全体ではなく、カスタムクエリを探しています。フェニックスのドキュメントからPySparkでカスタムApache Phoenix SQLクエリを実行する
、私はこれを使用することができ、テーブル全体をロードする:
table = sqlContext.read \
.format("org.apache.phoenix.spark") \
.option("table", "<TABLENAME>") \
.option("zkUrl", "<hostname>:<port>") \
.load()
私は
sqlResult = sqlContext.read \
.format("org.apache.phoenix.spark") \
.option("sql", "select * from <TABLENAME> where <CONDITION>") \
.option("zkUrl", "<HOSTNAME>:<PORT>") \
.load()
おかげカスタムSQLを使用するための対応と同等であるかを知りたいです。
へのリンクです。これは答えか質問の一部ですか? – YOU
それは私がやりたいことを達成するためにJDBCを使いましたが、Phoenix Sparkオプションを使う方が良いでしょう。それで私の試みとそれに対応するエラーメッセージです。 –
質問は最初の投稿で編集する必要があります。これは回答セクションです。 stackoverflowは、通常のフォーラムのようではありません。 – YOU