0
S3には420行と54000列のCSVファイルがあります。私は、SparkのデータフレームにCSVをロードしようとしています:小さいCSVファイルで問題はないPySpark sqlContext.read.load ArrayIndexOutofBoundsエラー
com.univocity.parsers.common.TextParsingException: java.lang.ArrayIndexOutOfBoundsException - 20480
:
genoExp = sqlContext.read.load("/mnt/%s/RNA-Seq/GSE10846_Gene_Expression_Data.csv" %MOUNT_NAME, format='com.databricks.spark.csv', header='true', inferSchema = 'true')
これはエラーを返します。