Javaで書かれたSparkジョブから、特定のhdfsファイルにアクセスできるすべてのlinux/centosユーザのリストを取得しようとしています。
すべてのポインタが役立ちます。 現在、情報を取得するためにJavaコードの下にトーリングされていますが、機能していません。 result = Shell.execCommand( "sudo"、 "bash"、 " - c"、 "lid"、 "-g"、 "-n"、fileOwnersGroup);Spark-Javaを使用してhdfsファイルにアクセスできるユーザのリストを取得する
それは sudoを投げている:何のtty存在していないaskpassパッケージプログラムは、更新の/ etc/sudoerが、運など、さまざまなオプションを試してみました
を指定されていません。
スタックオーバーフローはプログラミングと開発の質問のサイトです。この質問は、プログラミングや開発に関するものではないので、話題にはならないようです。ヘルプセンターの[ここではどのトピックを参照できますか](http://stackoverflow.com/help/on-topic)を参照してください。おそらく、[スーパーユーザ](http://superuser.com/)や[Unix&Linux Stack Exchange](http://unix.stackexchange.com/)の方が良いかもしれません。 – jww
"シェルスクリプト内"または "自分のプログラム内"を追加するだけでは、通常、質問をプログラミングや開発の質問にするには不十分です。あなたのJavaコードを表示し、問題のある場所を説明してください。 – jww
HDFSはPOSIXファイルシステムではありません。あなたのHDFSの「ユーザーアカウント」は(通常は)Linuxユーザーにはマッピングされていません。 **特に**ケルベロスを使用していない場合 –