0
Scala/Sparkの深い学習モデルをPython/PySparkに翻訳しています。 dfを読むと、すべての変数が文字列型として解釈されます。私はフロートとしてそれらをキャストする必要があります。複数の変数を持つPython/Sparkキャスト - double型の列
format_number(result['V1'].cast('float'),2).alias('V1')
が、31列を一度にそれをすべて行う方法 があります: は1で、このいずれかを実行することは簡単ですが、私はそれはこのようになると思います。 列は、 "V28" を "V1" と "時間"、 "金額"、 "クラス" です
それにScalaのソリューションはこれです:
// cast all the column to Double type.
val df = raw.select(((1 to 28).map(i => "V" + i) ++ Array("Time", "Amount", "Class")).map(s => col(s).cast("Double")): _*)
どのように行うにはPySparkでも同じですか?