私は、map
関数をsparkで利用できる関数呼び出しをしようとしています。 私はスパークチュートリアルのページ(https://spark.apache.org/docs/1.2.0/programming-guide.html)で与えられたことをしました。しかし、関数myFunc
は決して呼び出されません。少なくともそれは私の考えです。私は何か間違ったことをしているのか何かを逃しているのか分かりません。 これは、次のコードである。mapに渡される関数は決して呼び出されません。
from pyspark import SparkContext
if __name__ == "__main__":
def myFunc(s):
print("@@")
words = s.split("\n")
print("##")
return len(words)
sc = SparkContext("local","test")
sc.textFile("C:\\TestLogs\\sample.log").map(myFunc)
print("**")
出力:
**
実際には、これはファイルの場所を除いてスパークドキュメントから同じ例です。
:
は保持するために、次の "\\ファイルを" 更新を検討しますパラメーター)。あなたがそれを呼び出すと、あなたは何の引数も渡していません。それは大丈夫ですか? – facundop
@kaks Sparkは分かりませんが、何かの上にマップすると、_empty_は一度でも関数を呼び出すことはありません。あなたのファイルが実際にデータを提供していることを確認できますか? –
@facundop:はい、パラメータを持っています。しかし、sparkのドキュメントでは、mapでは、関数が 's'で定義されていても、myFuncはパラメータを取らない。 @ŁukaszRogalski:はい、sample.logファイルには10行のログ行があります。 – kaks