0
私はHadoopの2.8.1ローカルのノートパソコンからリモートHDFSにファイルを置くにはどうすればいいですか?
立体配置のHDFS-site.xmlの
<configuration>
# Add the following inside the configuration tag
<property>
<name>dfs.data.dir</name>
<value>/app/dfs/name/data</value>
<final>true</final>
</property>
<property>
<name>dfs.name.dir</name>
<value>/app/dfs/name</value>
<final>true</final>
</property>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
<property>
<name>dfs.webhdfs.enabled</name>
<value>true</value>
</property>
</configuration>
は、この変種は、働いていたのpython
from pywebhdfs.webhdfs import PyWebHdfsClient
from pprint import pprint
hdfs = PyWebHdfsClient(host='hadoop01',port='50070', user_name='hadoop') # your Namenode IP & username here
my_data = "01010101010101010101010101010101000111 Example DataSet"
my_file = '/examples/myfile.txt'
hdfs.create_file(my_file, my_data.encode('utf-8'))
ことで、このコードを見つけたのでした。 しかし、すでに用意されているファイルをリモートのHDFSに入れたいと思っています。
は
with open("C:\\Downloads\\Demographic_Statistics_By_Zip_Code.csv") as file_data:
print(file_data)
を書いてみましたが、ファイルはHDFSに入れていません。 返品のみ
<_io.TextIOWrapper name='C:\\Downloads\\Demographic_Statistics_By_Zip_Code.csv' mode='r' encoding='cp1251'>
このケースをどのように解決しますか?