2017-09-22 12 views
0

sparkデータフレームをcsvと寄木細工に書き込む際にエラーが発生しました。私はすでにwinutilをインストールしようとしていますが、まだエラーは解決していません。SparkR csvと寄木細工にデータフレームを書き込む際にエラーが発生しました

私のコード

INVALID_IMEI <- c("","000000000000000") 
    setwd("D:/Revas/Jatim Old") 
    fileList <- list.files() 
    cdrSchema <- structType(structField("date","string"), 
         structField("time","string"), 
         structField("a_number","string"), 
         structField("b_number", "string"), 
         structField("duration","integer"), 
         structField("lac_cid","string"), 
         structField("imei","string")) 
    file <- fileList[1] 
    filePath <- paste0("D:/Revas/Jatim Old/",file) 
    dataset <- read.df(filePath, header="false",source="csv",delimiter="|",schema=cdrSchema) 
    dataset <- filter(dataset, ifelse(dataset$imei %in% INVALID_IMEI,FALSE,TRUE)) 
    dataset <- filter(dataset, ifelse(isnan(dataset$imei),FALSE,TRUE)) 
    dataset <- filter(dataset, ifelse(isNull(dataset$imei),FALSE,TRUE)) 

データフレームをエクスポートするには、私は次のコード

write.df(dataset, "D:/spark/dataset",mode="overwrite") 
    write.parquet(dataset, "D:/spark/dataset",mode="overwrite") 

を試してみて、私は、私はすでに原因を見つけ、次のエラー

Error: Error in save : org.apache.spark.SparkException: Job aborted. 
at org.apache.spark.sql.execution.datasources.FileFormatWriter$$anonfun$write$1.apply$mcV$sp(FileFormatWriter.scala:215) 
at org.apache.spark.sql.execution.datasources.FileFormatWriter$$anonfun$write$1.apply(FileFormatWriter.scala:173) 
at org.apache.spark.sql.execution.datasources.FileFormatWriter$$anonfun$write$1.apply(FileFormatWriter.scala:173) 
at org.apache.spark.sql.execution.SQLExecution$.withNewExecutionId(SQLExecution.scala:65) 
at org.apache.spark.sql.execution.datasources.FileFormatWriter$.write(FileFormatWriter.scala:173) 
at org.apache.spark.sql.execution.datasources.InsertIntoHadoopFsRelationCommand.run(InsertIntoHadoopFsRelationCommand.scala:145) 
at org.apache.spark.sql.execution.command.ExecutedCommandExec.sideEffectResult$lzycompute(commands.scala:58) 
at org.apache.spark.sql.execution.command.ExecutedCommandExec.sideEffectResult(commands.scala:56) 
at org.apache.spark.sql.execution.comma 

答えて

0

を取得します。この問題は以前は2.6を使用していたwinutilバージョンにあるようです。 2.8に変更すると問題を解決するように見える

関連する問題