0
私はそれと感じ
Exception in task 0.0 in stage 0.0 (TID 0)
java.lang.IllegalArgumentException
at java.sql.Date.valueOf(Unknown Source)
at org.apache.spark.sql.catalyst.util.DateTimeUtils$.stringToTime(DateTimeUtils.scala:137)
としてエラーの下に生産
StructType schema = DataTypes.createStructType(Arrays.asList(
DataTypes.createStructField("Date", DataTypes.DateType, false),
DataTypes.createStructField("Time", DataTypes.TimestampType, false),
DataTypes.createStructField("CO(GT)", DataTypes.IntegerType, false),
DataTypes.createStructField("PT08.S1(CO)", DataTypes.IntegerType, false)))
Dataset<Row> df = spark.read().format("csv").schema(schema).load("src/main/resources/AirQualityUCI/sample.csv");
その次のようにスキーマを作成し、ファイルを読んでいます
2016-10-03, 18.00.00, 2, 6
としてデータを持つCSVファイルを解析しています時間形式エラーによるものです。適切な意味でStructType
にするために、それらを特定の形式または変更に変換する方法は何ですか?
私が期待しているフォーマットは、spark sqlで列を連結してタイムスタンプ形式に変換すると便利なので、hh:mm:ssという形式です。
2016-10-03, 18:00:00, 2, 6
重複のhttps://stackoverflow.com/questions/46295879/how-to-read-date-in-custom-format-from-csv-file –
@RameshMaharjan時間形式です。 stackoverflowごとに、我々は1つで複数の質問をすることはできませんので、別の質問を投稿しました。 –
@UtkarshSaraf csvファイルを読むときに 'option(" timestampFormat "、" HH.mm.ss ")'を使います。詳細については、Rameshが投稿したリンクを確認してください。 – Shaido