2017-02-08 8 views
0

複数のSQL文を持つScalaファイルを作成したいと思います。各文にはパラメータがほとんどありません。シェルファイルを使ってプログラムで実行/実行したいと思います。SQL文で使用されるパラメータを使用してSpark SQLアプリケーションを送信するにはどうすればよいですか?

import org.apache.spark.sql.hive.HiveContext; 
val sqlContext = new HiveContext(sc); 
val total=sqlContext.sql(s"select sum(amount) from table1 where location=$loc_var"); 

答えて

0

scoptをコマンドライン引数の処理に使用して、Scalaアプリケーションで使用します。 loc_var

0

あなたの質問が正しく理解できれば、文字列連結を使用して入力引数を追加できます。

//Capture input argument inside scala file 
val loc_var = args(0) 

val total=sqlContext.sql("select sum(amount) from table1 where location='"+loc_var+"'"); 
+0

ありがとうございます。わかった。それは役に立ちました。私は本当にあなたの助けに感謝します –

関連する問題