コードの末尾にscalaを使用してsparkを実行する必要があります。私は自分のコードでcountとgroupbyの関数を使いました。私は言及する必要があります、私のコードは、コードの最後の行なしで完全に動作します。Apache Sparkでスケーラを使用してシェルファイルを実行する方法
(import sys.process._
/////////////////////////linux commands
val procresult="./Users/saeedtkh/Desktop/seprator.sh".!!)
どうすれば解決するのか教えてください。
私は_pretty_ていることを確認してね例外はコードからではありません。私はあなたのクエリが 'groupBy'と' count'演算子または関数を使っていることに気づいています( 'partial_count(1)'を参照)。そして、 'Scan ExistingRDD'は、あなたがKafkaをストリーミングクエリーのソースとして使用すると思うようになります(ストラクチャードストリーミング)。どれくらい間違っていますか? –
@JacekLaskowski:あなたは正しいです。私はそれが私のスパークバージョンか何かのためだと思った!今私は何をすべきですか? – Reza
スタックトレース全体を貼り付けることはできますか?私はあなたが私たちに最も関連性の高い部分を見せているとは思わない。ありがとう! –