keras

    4

    2答えて

    最適化中にモデルの状態を保存する最良の方法が何であるか疑問に思っていました。私はこれをやりたいので、しばらくそれを実行して保存し、しばらくしてからやり直すことができます。私は重みを保存する関数とJSONとしてモデルを保存する別の関数があることを知っています。学習中は、モデルの重みとパラメータの両方を保存する必要があります。これには、運動量や学習率などのパラメータが含まれます。モデルと重量の両方を同

    7

    1答えて

    私は学習とニューラルネットワークを使って実験し、以下の問題についてより経験豊富な人から意見を持っていると思いますしています: 私はKerasでオートエンコーダ(「mean_squared_error」損失関数とSGDオプティマイザ)、検証を訓練するとき損失は​​徐々に低下しています。検証の精度が上がっています。ここまでは順調ですね。 しかし、しばらくすると、損失は減少し続けますが、突然精度は大幅に

    5

    1答えて

    私はKerasを使って自分のニューラルネットワークからいくつかのNaN出力を得ています。 10,000の結果につき約1つのNaNしか得られません。もともと、私はrelu活性化層を最終的なsoftmax層に供給していました。これにより、より多くのNaN結果が得られました。私は構成ネットワークの最後の2つの高密度層の活性化関数をreluからsigmoidに変更しました。これにより問題は改善されましたが

    1

    1答えて

    SGDを使って自分のニューラルネットのトレーニング状態を保存したいと思っています。私はsave_weights関数を使ってウェイトを保存できることを知っています。私が知らないことは、まともな勾配の勢いをどう救うかということです。誰もこれを行う方法を知っていますか?

    2

    1答えて

    埋め込みレイヤのないLSTMアーキテクチャを使用して、ケラスで簡単なシーケンスコピータスクを作成するにはどうすればよいですか?私はすでに単語ベクトルを持っています。

    1

    1答えて

    私はPythonでDeep Neural Networkライブラリを初めて使いました。私はWindowsシステムにTheano &ケラスをインストールしました。(すでにanacondaを持っていました): TDM GCC x64をインストールしてください。 を実行し、コマンドプロンプトから以下のコード私はIpythonで次のコードを実行している conda update conda conda

    0

    1答えて

    私はANNモデルを持っており、すべての隠しレイヤーの有効化値を取得しようとしています。私は90dimマトリックスでネットワークを訓練し、150dimの隠しレイヤーを1つ持っています。私のモデル構造は、1つの90dim入力レイヤー、1つの隠しレイヤー(150dim)と1つの出力(90dim)です。私はデータを訓練し、テストしました。その後、テストデータセットを使用して出力を予測するために.predi

    18

    4答えて

    私は、260,000行35列の「ワンホットエンコーディング」(すべて1とゼロ)のデータマトリックスを持っています。私は、連続変数を予測するために単純なニューラルネットワークを訓練するためにKerasを使用しています。ネットワークには、次のされていることを確認するためのコード: model = Sequential() model.add(Dense(1024, input_shape=(n_tr

    -4

    1答えて

    Keras/Theanoを使用した機械翻訳のアテンションモデルの実装を探しています。私はGroundhogのような図書館に出くわしましたが、私はいくつかの基本的な実装を探しています。