2017-05-03 13 views
2

コードと同じようにTensor FlowにWord Embeddingを実装しましたhere最終的な埋め込み(final_embeddings)を取得できましたが、この演習の典型的な類推を使用して埋め込みを評価したいと思います。最終埋込み配列のどの行にどの用語が対応するのかを特定するにはどうすればよいですか?あるいは、これについてTensor Flowの実装がありますか?どんな助けも大いに評価されるでしょう(詳細とリソースはプラスになります))。ありがとう!TensorFlowのWord2Vecのアナロジー?

答えて

1

conceptual tutorialをお勧めします。 スキップグラムを使用している場合、入力はワンホットエンコーディングです。したがって、1のインデックスは単語のベクトルのインデックスです。

enter image description here

tensorflowでの実装は非常に簡単です。例えばtf.nn.embedding_lookup

:あなたは、この機能を確認したいことがあり

embed = tf.nn.embedding_lookup(embedding, inputs) 

埋め込みは、あなたが探しているベクトルです。

+0

ありがとう、Qy Zuo!私もそう思っていました。私がアナロジーを実装するとき、私が得た結果は非官能的なものになりました。埋め込みの機能(この能力で)が埋め込みの次元と非常に異なる可能性はありますか?私がちょうど予備的な運動を行っていたので、私は任意に次元を選んだことに注意してください。 – user3009734

+0

@ user3009734はい、そうです。ディメンションの範囲は20〜1000です。このハイパーパラメータは、ボキャブサイズに合わせて選択できますが、厳密なマッピングはありません。 Socherはこのコース(https://www.youtube.com/watch?v=aRqn8t1hLxs)でこれについて完全に説明しました。 –

0

最終的な埋め込み配列のどの行が完全にあなたの実装に対応しているかは、あなたの訓練の前のある時点で、各単語を数字に変換しました。この数字は埋め込みテーブルの行を示します。

特定の名前を知りたい場合は、ここにコードの一部を投稿することができます。

関連する問題