2017-08-24 7 views
1

テンソルフローrelu関数が隠れ層のアクティブ化に使用されるモデルを使用しています。したがって、基本的にモデルはこれを行います。テンソルフローの層に独自のアクティベーション関数を適用する

h = tf.nn.relu(zw) 

ここで、zwは、前のレイヤの時間重みからの出力からのすべての要素です。 tensorflowのreluの定義によれば、

max(zw,0) 

が返されるので、0〜最大数とテンソルの各要素のためのZWの各要素の値。

0より大きい場合はzwを返し、0より小さい場合はzw要素が0.1を返すように独自のrelu関数を適用するにはどうすればよいですか?

答えて

1

あなたはこのような何か行うことができます:たくさんの素晴らしい

時間= tf.where(< 0 ZWを、0.1 * ZW、ZW)

+0

、感謝 – Atirag

関連する問題