私はwiki(韓国語)で事前に訓練された「ファーストテキストモデル」がうまくいかない理由を知りたいと思っています! :(2つのセンテンス間でpretrained fasttexモデルのcosine_similarityが高いのはなぜなのですか?
モデル= fasttext.load_model( "./ fasttext/wiki.ko.bin ")
model.cosine_similarity(" 테스트테스트이건테스트문장"、 "지금아무관계없는글정말로정말로") (英語で)
model.cosine_similarity(「本当に今はないすべての相対ドキュメント」、「テストテストは、これはテスト文である」)
150 .... ?? これらの文ではありませんまったく意味がありませんので、私は余弦しかし、それは0.997383でした...
孤独な文章とファストテキストを比較することは不可能ですか? これはdoc2vecを使用する唯一の方法ですか?