0
リストしようとしているフォルダへの完全なアクセス許可がありますが、それでもできませんでした。は新しいFile.listFilesを使用してhdfsディレクトリ内のファイルを一覧表示できません
import org.apache.hadoop.conf.Configuration
import org.apache.hadoop.fs.{FileSystem, Path}
val fs = FileSystem.get(new URI("hdfs://mapdigidev"), new Configuration())
val files = fs.listFiles(new Path("/apps/hive/warehouse/da_ai.db/t_fact_ai_pi_ww"), false)
しかし、Hadoopの/ HDFSについてjava.io知りません:あなたはHadoopの内のファイルを一覧表示するHadoopのライブラリを使用することができます
scala> new File("hdfs://mapdigidev/apps/hive/warehouse/da_ai.db/t_fact_ai_pi_ww").listFiles
res0: Array[java.io.File] = null
ファイルをリストして実際にそこに何かがあるのを確認するツールはありますか? – 9000
http://stackoverflow.com/questions/27023766/spark-iterate-hdfs-directoryを参照してください。 HDFSを扱う方法を知っているライブラリを使用する必要があります。また、java.ioはそうではありません。 –