Kerasのドキュメントでは、これが実際に何であるかが明確ではありません。私はこれを使用して入力フィーチャ空間をより小さなものに圧縮することができると理解しています。しかし、これは神経設計の観点からどのように行われますか?それはautoenocder、RBMですか?Kerasに埋め込みとは何ですか?
答えて
私が知る限り、埋め込みレイヤは、単語を対応する単語埋め込みに変換する単純な行列乗算です。
埋め込みレイヤの重みは、形状(vocabulary_size、embedding_dimension)です。各訓練サンプルについて、その入力は整数であり、これは特定の単語を表す。整数は語彙サイズの範囲内にある。埋め込みレイヤは、各整数iを埋め込み重み行列のi番目のラインに変換する。
これを素早く行列乗算するために、入力整数は整数のリストとしてではなく、ワンホットマトリクスとして格納されます。したがって、入力シェイプは(nb_words、vocabulary_size)、1行につき1つの非ゼロ値を持ちます。あなたは埋め込むの重みによって、これを掛ける場合は、形状
(nb_words, vocab_size) x (vocab_size, embedding_dim) = (nb_words, embedding_dim)
での出力はそう簡単な行列の乗算を使用すると、対応するワード埋め込みにサンプル内のすべての単語を変換し得ます。
興味深いことに、単純な行列乗算です。オートエンコーダーで埋め込みを学ぶことで何かを得ることができると思いますか? –
確かに有効なアプローチです([Semi-Supervised Sequence Learning](https://papers.nips.cc/paper/5949-semi-supervised-sequence-learning.pdf)を参照)。また、自動エンコーダーを使用して埋め込みを学習し、埋め込みレイヤーの初期化として使用して、ニューラルネットワークの複雑さを軽減することもできます(埋め込みレイヤーの後に別のことを行うと仮定します)。 – Lorrit
[ここ](http://colah.github.io/posts/2014-07-NLP-RNNs-Representations/)は、単語の埋め込みとその利点に関する素晴らしいブログです。 – sietschie
機能をよりよく理解するために、ソースコードを見るのは良い習慣です。ここにあるのはEmbedding だから基本的には訓練可能なルックアップテーブルだ。
- 1. 4グラムモデルのKeras単語埋め込み
- 2. Keras:埋め込み層+ LSTM:時間ディメンション
- 3. この埋め込みルビデリミタとは何ですか? - %は
- 4. 埋め込みhtmlファイル - ディレクトリとは何ですか?
- 5. メタオープン型埋め込みメタライナとは何ですか?
- 6. Keras(Theano)の畳み込みレイヤーでカーネルサイズが均一な埋め込み
- 7. 埋め込みレイヤのためのKeras - 入力シェイプ
- 8. pdf埋め込み/埋め込み
- 9. 埋め込みブートストラップレイアウトの埋め込み
- 10. 埋め込みレイヤのないKerasにLSTMを書き込む方法は?
- 11. Keras埋め込みレイヤーの0をマスキングする
- 12. Mongoid - 埋め込み可能なのは何ですか?モデルは埋め込まれていますか?
- 13. 埋め込みレイヤの初期値は何ですか?
- 14. 単語埋め込みの次元数は何ですか?
- 15. 埋め込みプレーヤーと埋め込み用画像のコンテンツ
- 16. Keras畳み込みレイヤーはカラーチャンネルで何をしますか?
- 17. Instagram埋め込みキャプションにHTMLを埋め込みます
- 18. フォントをEPSファイルに埋め込む方法 - 「埋め込み」の定義は何ですか?
- 19. 埋め込みを使用したKeras LSTM言語モデル
- 20. Keras LSTM入力サイズ(ホットテキスト埋め込みあり)
- 21. Xamarinフォームの埋め込みまたはネイティブ埋め込み
- 22. Spring Boot埋め込みTomcatまたは埋め込みTomcat
- 23. 埋め込み
- 24. 埋め込みカレンダーとマテリアライズ
- 25. 埋め込みリソースとデータベースパフォーマンス
- 26. PhysFSとPython埋め込み
- 27. 埋め込みphpとhtml
- 28. 埋め込みビューとローカライゼーション
- 29. 埋め込みPythonとランニング
- 30. VBA WordをExcelに埋め込む - 埋め込みしようとするとWordが埋め込まれる
訓練できるルックアップテーブル –