私はdstream.saveAsObjectFiles("/temObj")
を使用してスパークストリーミングでオブジェクトファイルを保持しています。これはhdfsに複数のファイルを表示します。Apache Sparkの単語で始まる複数のhdfsディレクトリを削除するには
temObj-1506338844000
temObj-1506338848000
temObj-1506338852000
temObj-1506338856000
temObj-1506338860000
すべてを読んだ後、すべてのtemObjファイルを削除します。火花でそれをするための賭けの方法は何ですか。私は
val hdfs = org.apache.hadoop.fs.FileSystem.get(new java.net.URI("hdfs://localhost:9000"), hadoopConf)
hdfs.delete(new org.apache.hadoop.fs.Path(Path), true)
を試みたが、それだけの時間残念なことに
を削除するときのパスにワイルドカード '*'を使用することが可能ですコマンドを実行するため
sys.process
を使用することができますか? – Shaido私はそれを試しましたが、それは仕事をdosen't –