-1
I持ってCSVファイルに次のデータ(実際には、私の実際のデータの方が大きいが、これは良い単純化である):カスタマイズ方法
ColumnA,ColumnB
1,X
5,G
9,F
私はそれ以下の方法を読んでいます、 url
は、ファイルの場所です:
val rawData = sqlContext.read
.format("com.databricks.spark.csv")
.option("header", "true")
.option("inferSchema", "true")
.load(url)
、私はその後https://github.com/databricks/spark-csv
を使用していますが、私はそれにマップを適用しています:
val formattedData = rawData.map(me => me("ColumnA") match {
//some other code
})
しかし、私はこのようなコラム参照していたとき:me("ColumnA")
を私は型の不一致を取得しています:
Type mismatch, expected: Int, actual: String
は、なぜこれが起こっていますか? rawData
のすべての行を地図にする必要はありませんか?