2017-05-01 10 views
0

リストしようとしているフォルダへの完全なアクセス許可がありますが、それでもできませんでした。は新しいFile.listFilesを使用してhdfsディレクトリ内のファイルを一覧表示できません

import org.apache.hadoop.conf.Configuration 
import org.apache.hadoop.fs.{FileSystem, Path} 

val fs = FileSystem.get(new URI("hdfs://mapdigidev"), new Configuration()) 
val files = fs.listFiles(new Path("/apps/hive/warehouse/da_ai.db/t_fact_ai_pi_ww"), false) 

しかし、Hadoopの/ HDFSについてjava.io知りません:あなたはHadoopの内のファイルを一覧表示するHadoopのライブラリを使用することができます

scala> new File("hdfs://mapdigidev/apps/hive/warehouse/da_ai.db/t_fact_ai_pi_ww").listFiles 
res0: Array[java.io.File] = null 
+0

ファイルをリストして実際にそこに何かがあるのを確認するツールはありますか? – 9000

+1

http://stackoverflow.com/questions/27023766/spark-iterate-hdfs-directoryを参照してください。 HDFSを扱う方法を知っているライブラリを使用する必要があります。また、java.ioはそうではありません。 –

答えて

0

:ここにコードを入力して助けてください。

関連する問題