私は畳み込みニューラルネットワークのKerasの例を見ています。 (たとえば、https://github.com/fchollet/keras/blob/master/examples/imdb_cnn.pyを参照してください)。しかし、 "maxlen"パラメータの意味を理解することはできません。それはパディングと関係がありますか?機能の最大数ではありません。それらにはmax_featuresパラメータがあります。畳み込みネットのケラスパラメータ
3
A
答えて
2
maxlen
パラメータは、テキストサンプルの長さをワード単位で表したものです。
Kerasのコード例ではこれらの設定を持っている:
# set parameters:
max_features = 5000
maxlen = 400
...
embedding_dims = 50
これは、これらの単語のそれぞれが50の寸法とあなたのテキストサンプルのそれぞれと特徴ベクトルの中に埋め込まれて、あなたは5000語の語彙を持っていることを意味400語の長さにすることができます。
これは、400語よりも短いテキストサンプルがあると、間接的にパディングと関連しています。次に、テキスト分類のための1D-ConvNetsについては400
の長さにパッドにこれらを持っても、この論文とこのブログ記事を参照してください。
https://arxiv.org/abs/1408.5882
http://www.wildml.com/2015/11/understanding-convolutional-neural-networks-for-nlp/
を関連する問題
- 1. Caffeの完全な畳み込みネット
- 2. マルチチャネル画像データセットでトレーニング畳み込みネット
- 3. Tensorflow畳み込みとnumpy畳み込みの違い
- 4. 畳み込みニューラルネットワークモデルアーキテクチャ
- 5. ゴーランの畳み込み
- 6. アンパッドカーネルの畳み込み
- 7. データキューブのガウス畳み込み
- 8. 畳み込み層のテンソルフローサイズ
- 9. TensorFlow畳み込みNueralネットワークチュートリアル
- 10. 空間畳み込み対周波数畳み込み画像の逆フィルタ
- 11. 畳み込みネットワークの重み?
- 12. 畳み込みニューラルネットワーク - 可視化重み
- 13. OpenCVのDFTベースの畳み込みは
- 14. Kerasの畳み込みレイヤーのウェイト
- 15. 畳み込みニューラルネットワークのレイヤーを特定
- 16. 畳み込みニューラルネットワークのコスト関数
- 17. 実装畳み込みニューラルネットワークのケラス
- 18. 畳み込みエンコーダのゼロパディング(テールビット)。 VHDL
- 19. 畳み込みレイヤのサイズ縮小
- 20. 畳み込みニューラルネットワークの検証精度
- 21. 畳み込みのないDenseNet?
- 22. 畳み込みニューラルネットワークの不均衡クラス
- 23. 畳み込みニューラルネットワークの層数
- 24. 畳み込みニューラルネットワークの認識タイプ
- 25. 2Dの畳み込み定理
- 26. 2D配列のTensorFlow畳み込み
- 27. 畳み込みニューラルネットワークの次元
- 28. 畳み込みニューラルネットワークの入力データ
- 29. 畳み込みニューラルネットワーク - 複数のチャネル
- 30. 畳み込み、画像上の画像