2017-03-26 12 views
0

Pythonで単純なトークナイザパッケージを作りたかったのです。しかし、仮想環境にローカルにインストールした後に実行しようとすると、インポートが拒否されました。この小さなPythonパッケージで何が問題になっていますか?

pip install git+https://github.com/djokester/tokenizer 

その後

>>> import tokenizer 

Traceback (most recent call last): File "", line 1, in ImportError: No module named 'tokenizer'

あなたは、パッケージと間違っているものを私に教えてくださいすることができます。 リンク先はこちら https://github.com/djokester/tokenizer

+0

setup.pyでは、 'name = 'Tokenizer'が表示されます。代わりに 'import Tokenizer'を行う必要があるのでしょうか? –

+0

@ Code-Apprentice No. NumPyもnumpyとしてインポートできます。 – Djokester

答えて

0

トークンタイマーではなく、tokenizeです。次の作品。

/ # pip install 'git+https://github.com/djokester/tokenize' --upgrade 
Collecting git+https://github.com/djokester/tokenize 
    Cloning https://github.com/djokester/tokenize to /tmp/pip-BOScTb-build 
Installing collected packages: Tokenize 
    Running setup.py install for Tokenize ... done 
Successfully installed Tokenize-0.1 
/# 
/# python 
Python 2.7.13 (default, Mar 3 2017, 23:23:44) 
[GCC 5.3.0] on linux2 
Type "help", "copyright", "credits" or "license" for more information. 
>>> 
>>> import tokenize 
>>> dir(tokenize) 
['AMPER', 'AMPEREQUAL', 'AT', 'BACKQUOTE', 'Binnumber', 'Bracket', 'CIRCUMFLEX', 'CIRCUMFLEXEQUAL', 'COLON', 'COMMA', 'COMMENT', 'Comment', 'ContStr', 'DEDENT', 'DOT', 'DOUBLESLASH', 'DOUBLESLASHEQUAL', 'DOUBLESTAR', 'DOUBLESTAREQUAL', 'Decnumber', 'Double', 'Double3', 'ENDMARKER', 'EQEQUAL', 'EQUAL', 'ERRORTOKEN', 'Expfloat', 'Exponent', 'Floatnumber', 'Funny', 'GREATER', 'GREATEREQUAL', 'Hexnumber', 'INDENT', 'ISEOF', 'ISNONTERMINAL', 'ISTERMINAL', 'Ignore', 'Imagnumber', 'Intnumber', 'LBRACE', 'LEFTSHIFT', 'LEFTSHIFTEQUAL', 'LESS', 'LESSEQUAL', 'LPAR', 'LSQB', 'MINEQUAL', 'MINUS', 'NAME', 'NEWLINE', 'NL', 'NOTEQUAL', 'NT_OFFSET', 'NUMBER', 'N_TOKENS', 'Name', 'Number', 'OP', 'Octnumber', 'Operator', 'PERCENT', 'PERCENTEQUAL', 'PLUS', 'PLUSEQUAL', 'PlainToken', 'Pointfloat', 'PseudoExtras', 'PseudoToken', 'RBRACE', 'RIGHTSHIFT', 'RIGHTSHIFTEQUAL', 'RPAR', 'RSQB', 'SEMI', 'SLASH', 'SLASHEQUAL', 'STAR', 'STAREQUAL', 'STRING', 'Single', 'Single3', 'Special', 'StopTokenizing', 'String', 'TILDE', 'Token', 'TokenError', 'Triple', 'Untokenizer', 'VBAR', 'VBAREQUAL', 'Whitespace', '__all__', '__author__', '__builtins__', '__credits__', '__doc__', '__file__', '__name__', '__package__', 'any', 'chain', 'double3prog', 'endprogs', 'generate_tokens', 'group', 'main', 'maybe', 'printtoken', 'pseudoprog', 're', 'single3prog', 'single_quoted', 'string', 't', 'tabsize', 'tok_name', 'tokenize', 'tokenize_loop', 'tokenprog', 'triple_quoted', 'untokenize'] 
>>> 
+0

tokenizeはすでにPythonの既存のパッケージです。私はパッケージの名前をtokenizerに変更しました。それは動作しません。何がうまくいかないのか? – Djokester

関連する問題