lstm

    0

    1答えて

    LSTMベースのRNNのドロップアウト率、隠れユニットの数、およびレイヤ数のプレースホルダを使用したいと考えています。以下は私が現在試みているコードです。 dropout_rate = tf.placeholder(tf.float32) n_units = tf.placeholder(tf.uint8) n_layers = tf.placeholder(tf.uint8) net

    6

    1答えて

    私はIMDB exampleに基づいてBLSTMを実行していますが、私のバージョンは分類ではなく、ラベルのシーケンス予測です。簡単にするため、POSタギングモデルとして扱うことができます。入力は単語の文、出力はタグです。この例で使用される構文は、model.addを使用せず、シーケンスを開始する点で、他のほとんどのKerasの例と構文が少し異なります。このわずかに異なる構文でマスクレイヤーを追加す

    2

    1答えて

    私はdeeplearning4jライブラリを初めて使いましたが、一般的にニューラルネットワークの経験があります。 私はリアルタイムで音楽のビートを検出するはずのリカレントニューラルネットワーク(特にLSTM)を訓練しようとしています。私が今までに見つけたdeeplearning4jでリカレントニューラルネットを使用する例はすべて、ファイルからトレーニングデータを読み取るリーダーを使用しています。マ

    0

    2答えて

    TensorFlowのLSTMでl1またはl2の正則化をどのように実装できるのでしょうか? TFはLSTMの内部の重みにアクセスすることはできないので、どのようにして規範を計算して損失に加えるかはわかりません。私の損失機能は今のところRMSに過ぎません。 答えはhereで十分ではありません。

    1

    1答えて

    特別な単語埋め込みでLSTMを構築したいと思いますが、これがどのように機能するかについていくつか質問があります。 ご存じのように、LSTMによっては文字が操作されるものがあります。私は同じことをしたいと思います。単語に抽象化を入れて、LSTMを入れ子にして強固な埋め込みを学び、わずかな文字レベルのエラーに耐えるようにしたいと思います。 小さなLSTMが単語のすべての文字を展開すると、単語の埋め込み

    1

    1答えて

    私はケラスを初めて使いました。ドキュメントやケラスのexamplesフォルダを読んでいたにもかかわらず、私はまだすべてを合わせる方法に苦労しています。 特に、私は簡単なタスクから始めたいと思います。トークンのシーケンスがあり、トークンごとにラベルが1つだけあります。私は必要に応じてより多くの(token, label)トレーニングペアを生成することができるので、このような多くのトレーニングデータを

    0

    1答えて

    の双方向-LSTMに私は双方向LSTMネットワークを訓練していますが、私はそれを訓練するとき、私は以下のようにこれを得たNO収束: " Iter 3456, Minibatch Loss= 10.305597, Training Accuracy= 0.25000 Iter 3840, Minibatch Loss= 22.018646, Training Accuracy= 0.00000

    1

    1答えて

    Predicting the next word using the LSTM ptb model tensorflow exampleで説明したのと同じメソッドを適用してテンソルフローLSTMを使用し、テストドキュメントの次の単語を予測します。しかし、LSTMは、実行するたびに常にすべてのシーケンスに対して同じ単語を予測します。 は具体的には、私はこれらの行を追加: class PTBModel

    1

    1答えて

    theanoのテンソルの要素ワイズドット積を行う方法はありますか?私は、次のテンソルがあるとします。 >>>t1.shape.eval() array([5, 3, 3]) >>>t2.shape.eval() array([5, 3, 1)]) 5の各(3 * 3)T1の行列は、(3 * 1)の行列の各が点在し得るように、私は、内積をどのように行うことができます最終的には私を与えるため