activation-function

    0

    1答えて

    最近、ニューラルネットワークを実験しています。私は使用する活性化関数に関する一般的な質問に出くわしました。これはよく知られている事実かもしれませんが、私は正しく理解できませんでした。私が見てきた多くの例と論文は、分類問題に取り組んでいます。出力層の活性化関数として、シグモイド(バイナリの場合)またはsoftmax(マルチクラスの場合)を使用しています。しかし、私は、回帰モデルの出力層で使用されてい

    1

    1答えて

    私は単純なニューラルネットワークで異なる起動機能を試しています。 tf.nn.relu、tf.nn.sigmoidを使用しても問題ありません。ネットワークが行うべきことを行います。 しかし、私がtf.nn.creluを使用している場合は、寸法誤差があります。 [max, min]のようなものが返され、幅の寸法が2倍大きくなります。 私は何をしなければなりませんか?次の重みと偏りをcreluの出力に

    0

    1答えて

    通常、活性化関数が layer = tf.nn.relu(layer) のように与えられた層の全てのニューロンに適用されますどのように私は唯一の第二のニューロンを言うために活性化関数を適用することができますか? 特定のニューロンにのみ特定の変換(たとえばtf.exp())を適用できますか? 列をスライスするために列をスライスすることはできません。行の数を知る必要があり、作成時に不明です。

    -4

    1答えて

    H2Oのディープ・ラーニング・モジュールに漏れ込みReLUを実装する計画はありますか?私はニューラルネットの初心者ですが、限られたモデル構築とパラメータ調整では、ReLUがより一般化されていることがわかりました。また、ReLUの問題を回避するために漏れ込みReLUsを使用することでさらに優れたパフォーマンスが得られるかどうかは疑問でした。

    1

    1答えて

    Delving Deep into Rectifiersの用紙を読み終えました。本稿では、PReLUと呼ばれる新しいアクティベーション機能を提案する。この論文では言及していないので、明らかであるかもしれませんが、PReLUのパラメータaがいつ更新されるのかを知りたいのですが?体重更新前または体重更新後に更新されていますか?または同時に重量で更新されていますか?

    1

    1答えて

    私自身のアクティベーション機能を定義し、TensorFlow Train API、すなわちのような事前定義された見積もりを持つ高水準APIで使用できますか?? 例えば、私はこのコードを使用しますが、私自身の何かを tf.nn.tanh活性化機能を交換したい:カスタム関数の構築で表すことができる場合 tf.estimator.DNNClassifier( feature_columns=fe

    0

    2答えて

    [0,1]を出力する分類にシグモイド活性化関数を使用するコードがあります。しかし、私はバイナリ値0または1 いずれか x = tf.placeholder("float", [None, COLUMN]) Wh = tf.Variable(tf.random_normal([COLUMN, UNITS_OF_HIDDEN_LAYER], mean=0.0, stddev=0.05))

    1

    1答えて

    relu activation関数に派生関数が含まれていないということはどのような影響を与えますか? How to implement the ReLU function in Numpyは、最大(0、行列ベクトル要素)としてreluを実装します。 勾配降下では、relu関数の派生を取っていませんか? 更新:Neural network backpropagation with RELU から こ

    0

    1答えて

    私はWindowsフォームアプリケーションのための簡単な一回のアクティブ化プロセスを作成したいと思います。ですから、私は基本的に2つのフォームを持っています。フォーム1は起動ウィンドウで、フォーム2は実際のプログラムです。私は今、問題は、私は私のプログラムをロードするたびにある、それは常に(すなわちpattern)誰かが正常にキーを入力した場合でもをForm1をロード string mac = t