word2vecアルゴリズムを使って2つの異なる単語ベクトルモデルを作成しました。今問題は、私は直面している最初のモデルからいくつかの言葉は2番目のモデルではないです。私は2つの異なる単語ベクトルモデルから3番目のモデルを作成したいと思います。ここでは、両方のモデルの単語ベクトルを、意味と単語ベクトルのコンテキストを失うことなく使用できます。他のモデルの単語を組み合わせた単語ベクトルモデルを作成する
私はこれを行うことができますか?
word2vecアルゴリズムを使って2つの異なる単語ベクトルモデルを作成しました。今問題は、私は直面している最初のモデルからいくつかの言葉は2番目のモデルではないです。私は2つの異なる単語ベクトルモデルから3番目のモデルを作成したいと思います。ここでは、両方のモデルの単語ベクトルを、意味と単語ベクトルのコンテキストを失うことなく使用できます。他のモデルの単語を組み合わせた単語ベクトルモデルを作成する
私はこれを行うことができますか?
翻訳機能を学習するために、他の共用語を使用して、あるモデルの単語のベクトルのみを他のモデルの座標空間に変換することができます。
最新のgensimバージョンでこれを行う機能があります。TranslationMatrixツールを参照してください。でオンライン閲覧可能Jupyterのノートブックはdocs/notebooks
ディレクトリに含まデモ、あります:
https://github.com/RaRe-Technologies/gensim/blob/develop/docs/notebooks/translation_matrix.ipynb
は、あなたは、おそらく大きなモデル(またはいずれか一方がそれだったかもしれないので、方が良いと考えられている取ると思いますより多くのデータを訓練した)、欠落している単語の数をそのスペースに変換します。実用的な数の共通アンカーを使用します。
あなたの質問は? – sophros