私はこれを読んでpageしかし、私は次のコードに基づいて構築されたモデルの間に何が違うか理解していません。 dbow_wordsが0のとき、doc-vectorsのトレーニングがより速いことがわかります。dbow_wordsが1または0に設定されている場合、doc2vecモデルの違いは何ですか?
まずモデル
model = doc2vec.Doc2Vec(documents1, size = 100, window = 300, min_count = 10, workers=4)
セカンドモデル
model = doc2vec.Doc2Vec(documents1, size = 100, window = 300, min_count = 10, workers=4,dbow_words=1)
@goiomoあなたは次のように書いています: 'これはDBOWのdoc-vectorsと単語ベクトルを「同じ空間」に変換する。 doc2vecモデルを構築する他の方法では、word2vecベクトルとdoc2vectベクトルは同じ空間にありませんか? – user3092781
'dbow_words = 1 'のないPV-DBOW(' dm = 0')では、単語ベクトルは訓練されていません。 PV-DM( 'dm = 1')では、doc-vectorsとword-vectorは平均化されているため、比較可能性のために再び同じ空間に入ります。アドバンスト/実験的な 'dm_concat = 1'モード(' dm = 1'に加えて推奨されない)では、doc-vectorsとword-vectorは別々の場所で予測神経ネットワークに入力されるので、異なる空間から来ている。 – gojomo