こんにちはメンバーではありません。また、出力を生成する前にマップを使用してデータ値をルックアップする必要があります。ここにコードがあります。reduceByKeyは、私は単にドキュメントからワードカウントを取得するコードがある
requests
.filter(_.description.exists(_.length > 0))
.flatMap { case request =>
broadcastDataMap.value.get(request.requestId).map {
data =>
val text = Seq(
data.name,
data.taxonym,
data.pluralTaxonym,
request.description.get
).mkString(" ")
getWordCountsInDocument(text).map { case (word, count) =>
(word, Map(request.requestId -> count))
}
}
}
.reduceByKey(mergeMap)
エラーメッセージが
reduceByKey is not a member of org.apache.spark.rdd.RDD[scala.collection.immutable.Map[String,scala.collection.immutable.Map[Int,Int]]]
どのように私はこの問題を解決することができますか?私はgetWordCountsInDocumentを呼び出す必要があります。ありがとう!
あなたはPairRDDを得る必要があります。 reduceByKeyの前に.map()を使用してみてください – Natalia