SparkRパッケージを使用して、RStudioデスクトップ(Windows)からHDPクラスタに接続しようとしています。Windows用Kerberos認証R
kerberosの資格情報が不足していると思われる、エラーメッセージが表示されずにSpark initが失敗しています。 (正確なエラーメッセージは下にあります)私はすでにケルベロスティッカーを持っていますが、RStudioデスクトップはKerberos認証をサポートしておらず、RStudioサーバープロは必要なものです。しかし、RStudio server ProはWindowsにインストールできないようです。
現在のWindowsベースのRおよびRStudio環境に固執したい場合、Hadoopを接続する他の方法はありますか?
また、コアR自体(RStudioなし)にはHadoopクラスタでの認証に使用できるパッケージがありますか?
WindowsにMicrosoft Rをインストールできるようですが、Kerberos認証をサポートしていないようですね。
sparkR.init(master = "yarn-client",appName = "sparkR", sparkHome = "C:/spark-1.6.2-bin-hadoop2.6",sparkEnvir = list(spark.driver.memory="2g"))
Error in invokeJava(isStatic = TRUE, className, methodName, ...) :
java.io.IOException: Failed on local exception: java.io.IOException: javax.security.sasl.SaslException: GSS initiate failed [Caused by GSSException: No valid credentials provided (Mechanism level: Failed to find any Kerberos tgt)]; Host Details : local host is: "HostName/IPAddress"; destination host is: "HostName:PORT;
at org.apache.hadoop.net.NetUtils.wrapException(NetUtils.java:772)
at org.apache.hadoop.ipc.Client.call(Client.java:1472)
at org.apache.hadoop.ipc.Client.call(Client.java:1399)
at org.apache.hadoop.ipc.ProtobufRpcEngine$Invoker.invoke(ProtobufRpcEngine.java:232)
at com.sun.proxy.$Proxy23.getClusterMetrics(Unknown Source)
at org.apache.hadoop.yarn.api.impl.pb.client.ApplicationClientProtocolPBClientImpl.getClusterMetrics(ApplicationClientProtocolPBClientImpl.java:202)
at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)
at sun.reflect.NativeMethodAccessorImpl.invoke(Unknown Source)
at sun.reflect.DelegatingMethod