私は新しいpysparkユーザーです。 インストール後にスパーククラスター( "spark-2.0.2-bin-hadoop2.7.tgz") をダウンロードしてインストールしました。ファイルシステムにアクセスしたい(クラスターにローカルファイルをアップロードする)。しかし、コマンドにhadoopやhdfsを入力しようとすると、 "no command found"と表示されます。スパークがインストールされていますが、コマンド 'hdfs'または 'hadoop'が見つかりません
私はhadoop/HDFSをインストールしますか(私はそれが火花の中に組み込まれていると思いましたが、私は得られません)?
ありがとうございます。
Sparkをインストールする前にHadoopをインストールしましたか? hadoopがインストールされていない場合、Sparkサポートのhadoopバージョンをインストールしました.Hadoopコマンドは機能しません。 – Bhavesh
Apache SparkはスタンドアロンモードでもApache hadoopでもインストールできます。私はあなたがスタンドアロンモードでインストールしたと思うので、あなたはhdfsファイルシステムにアクセスできません。 – user4342532
@Bhavesh Legit!私は馬鹿だった。ありがとうございました。私がダウンロードしたものにHDFSが付属していると思った –