2017-10-20 7 views
0

私はHadoopの2.8.1ローカルのノートパソコンからリモートHDFSにファイルを置くにはどうすればいいですか?

立体配置のHDFS-site.xmlの

<configuration> 
# Add the following inside the configuration tag 
<property> 
     <name>dfs.data.dir</name> 
     <value>/app/dfs/name/data</value> 
     <final>true</final> 
</property> 
<property> 
     <name>dfs.name.dir</name> 
     <value>/app/dfs/name</value> 
     <final>true</final> 
</property> 
<property> 
     <name>dfs.replication</name> 
     <value>1</value> 
</property> 
<property> 
    <name>dfs.webhdfs.enabled</name> 
    <value>true</value> 
</property> 
</configuration> 

は、この変種は、働いていたのpython

from pywebhdfs.webhdfs import PyWebHdfsClient 
from pprint import pprint 

hdfs = PyWebHdfsClient(host='hadoop01',port='50070', user_name='hadoop') # your Namenode IP & username here 

my_data = "01010101010101010101010101010101000111 Example DataSet" 
my_file = '/examples/myfile.txt' 
hdfs.create_file(my_file, my_data.encode('utf-8')) 

ことで、このコードを見つけたのでした。 しかし、すでに用意されているファイルをリモートのHDFSに入れたいと思っています。

with open("C:\\Downloads\\Demographic_Statistics_By_Zip_Code.csv") as file_data: 
    print(file_data) 

を書いてみましたが、ファイルはHDFSに入れていません。 返品のみ

<_io.TextIOWrapper name='C:\\Downloads\\Demographic_Statistics_By_Zip_Code.csv' mode='r' encoding='cp1251'> 

このケースをどのように解決しますか?

答えて

関連する問題