2016-11-05 17 views
1

StanfordSegmenterを使用して中国語を分割しようとしましたが、キャプション付きの問題が発生しました。私が最初にエラー:メインクラスが見つかりませんでしたedu.stanford.nlp.ie.crf.CRFClassifier

http://nlp.stanford.edu/software/segmenter.shtmlからスタンフォードのWordセグメンタバージョン3.5.2をダウンロードした後、私はpythonの書いた:

import os 
os.environ['JAVAHOME'] = "C:/Program Files/Java/jdk1.8.0_102/bin/java.exe" 
from nltk.tokenize.stanford_segmenter import StanfordSegmenter 
segmenter = StanfordSegmenter(path_to_jar = "./stanford-segmenter-2015-12-09/stanford-segmenter-3.6.0.jar", 
          path_to_slf4j = "./stanford-segmenter-2015-12-09/slf4j-api.jar", 
          path_to_sihan_corpora_dict = "./stanford-segmenter-2015-12-09/data", 
          path_to_model = "./stanford-segmenter-2015-12-09/data/pku.gz", 
          path_to_dict = "./stanford-segmenter-2015-12-09/data/dict-chris6.ser.gz") 
sentence = u"这是斯坦福中文分词器测试" 
segmenter.segment(sentence) 

をしかし、私は次のエラーました:私はミスをしなかった

Error: Could not find or load main class edu.stanford.nlp.ie.crf.CRFClassifier 

を?ありがとう。

答えて

0

実装エラーがあると思います。私も同様の問題がありました。 これが「doesnの場合は、単に

segmenter._stanford_jar = "./スタンフォード・セグメント化 - 2015年12月9日/スタンフォード・セグ-3.6.0.jar"

をやってみてください、エラーを解決するにはsegmenter._stanford_jar上のsegementer jarファイルの完全なパスを与えることを試みる作業

関連する問題