コードと同じようにTensor FlowにWord Embeddingを実装しましたhere最終的な埋め込み(final_embeddings)を取得できましたが、この演習の典型的な類推を使用して埋め込みを評価したいと思います。最終埋込み配列のどの行にどの用語が対応するのかを特定するにはどうすればよいですか?あるいは、これについてTensor Flowの実装がありますか?どんな助けも大いに評価されるでしょう(詳細とリソースはプラスになります))。ありがとう!TensorFlowのWord2Vecのアナロジー?
2
A
答えて
1
conceptual tutorialをお勧めします。 スキップグラムを使用している場合、入力はワンホットエンコーディングです。したがって、1
のインデックスは単語のベクトルのインデックスです。
tensorflowでの実装は非常に簡単です。例えばtf.nn.embedding_lookup
:あなたは、この機能を確認したいことがあり
embed = tf.nn.embedding_lookup(embedding, inputs)
埋め込みは、あなたが探しているベクトルです。
0
最終的な埋め込み配列のどの行が完全にあなたの実装に対応しているかは、あなたの訓練の前のある時点で、各単語を数字に変換しました。この数字は埋め込みテーブルの行を示します。
特定の名前を知りたい場合は、ここにコードの一部を投稿することができます。
関連する問題
- 1. Tensorflow Word2Vec KNN
- 2. TensorFlow RNNの本の例(word2vec、embeddings)
- 3. Pretrained Word2VecをTensorflowに埋め込む
- 4. TensorFlow GP2で動作するWord2Vecモデル
- 5. keras/tensorflowで学習したword2vecの使い方は?
- 6. TensorFlowにpre-training word2vecベクトルを注入するseq2seq
- 7. word2vec(gensim)のscore_cbow_pair
- 8. 中国語のWord2Vec
- 9. 未知のアルゴタイプ:word2vec
- 10. Doc2vecとword2vecのマイナスサンプリング
- 11. word2vecのテンソルフローのデータ形式
- 12. テンソルフローWord2Vecエラー
- 13. word2vec vocab vs char
- 14. 必要性Word2Vec
- 15. Python Gensim word2vecボキャブラリーキー
- 16. deeplearning4j:オンラインWord2Vecトレーニング
- 17. Gensim word2vecオンライントレーニング
- 18. word2vec guessing word embeddings
- 19. Word2Vec出力ベクトル
- 20. Gensim Word2Vecモデル:カットディメンション
- 21. word2vecの費用関数
- 22. word2vec:トレーニングコーパスの設定順序
- 23. Gensim word2vecの出力は
- 24. アナロジーを使用してJavaScriptのシングルスレッドの性質を説明するには?
- 25. deeplearning4j word2vec出力wordvectors
- 26. データワードにスパムword2vec findSymonyms
- 27. word2vecテンソルでの実行の流れ
- 28. word2vec CNTKのCBOWリーダーの実装
- 29. word2vecモデルの比較の最適化
- 30. python tokenizer word2vecのモデルに2ワードのフレーズ
ありがとう、Qy Zuo!私もそう思っていました。私がアナロジーを実装するとき、私が得た結果は非官能的なものになりました。埋め込みの機能(この能力で)が埋め込みの次元と非常に異なる可能性はありますか?私がちょうど予備的な運動を行っていたので、私は任意に次元を選んだことに注意してください。 – user3009734
@ user3009734はい、そうです。ディメンションの範囲は20〜1000です。このハイパーパラメータは、ボキャブサイズに合わせて選択できますが、厳密なマッピングはありません。 Socherはこのコース(https://www.youtube.com/watch?v=aRqn8t1hLxs)でこれについて完全に説明しました。 –