私は、テキストを整理して単語に分割する一連の関数を持っています。最小の例:と型の不一致のスカラ連鎖関数
val txt = "Mary had a @little \nlamb"
val stopwords = Seq("a")
def clean(text: String): String = text.replaceAll("\n*\r*", "")
def tokenize(text: String): Seq[String] = text.split("\\s")
val cleaned = clean(txt)
val tokens = tokenize(cleaned)
このコードは期待どおりに動作します。しかし、実際には慣用ではありません。
clean(txt) andThen tokenize
しかし、コンパイラは、トークン化機能でエラーtype mismatch; required: Char => ?
でこの文句を言う: は、私はこれを行うことを望んでいました。
私はここで何が欠けていますか?
興味深い、私はそれを得る。エタ拡張について知らなかった。私はいくつかの読書があります:)。 – Tim