WindowsにSparkをインストールしましたが、私はpyspark
を開始できません。 c:\Spark\bin\pyspark
と入力すると、次のエラーが表示されます。pysparkを実行できません
Python 3.6.0 |Anaconda custom (64-bit)| (default, Dec 23 2016, 11:57:41) [MSC v.1900 64 bit (AMD64)] on win32 Type "help", "copyright", "credits" or "license" for more information. Traceback (most recent call last): File "c:\Spark\bin..\python\pyspark\shell.py", line 30, in import pyspark File "c:\Spark\python\pyspark__init__.py", line 44, in from pyspark.context import SparkContext File "c:\Spark\python\pyspark\context.py", line 36, in from pyspark.java_gateway import launch_gateway File "c:\Spark\python\pyspark\java_gateway.py", line 31, in from py4j.java_gateway import java_import, JavaGateway, GatewayClient File "", line 961, in _find_and_load File "", line 950, in _find_and_load_unlocked File "", line 646, in _load_unlocked File "", line 616, in _load_backward_compatible File "c:\Spark\python\lib\py4j-0.10.4-src.zip\py4j\java_gateway.py", line 18, in File "C:\Users\Eigenaar\Anaconda3\lib\pydoc.py", line 62, in import pkgutil File "C:\Users\Eigenaar\Anaconda3\lib\pkgutil.py", line 22, in ModuleInfo = namedtuple('ModuleInfo', 'module_finder name ispkg') File "c:\Spark\python\pyspark\serializers.py", line 393, in namedtuple cls = _old_namedtuple(*args, **kwargs) TypeError: namedtuple() missing 3 required keyword-only arguments: 'verbose', 'rename', and 'module'
私はここで間違っていますか?
で以下のコマンド 実行私はあなたが間違ってやっている物事のカップルに名前を付けることができます) "コードサンプル"の代わりに。あなたがインストールしたSparkのバージョンについては言及していませんでした:_(3)_あなたはGoogleに 'spark TypeError:namedtuple()missing 3 required keyword-only arguments'を試したこともありませんでした。 //issues.apache.org/jira/browse/SPARK-19019を最上位の回答とします。 –
行末をトレースバックに保存して、リモートで読み取り可能にしてください。 – Eric