tf.contrib.layers.xavier_initializer()はアクティベーション関数をどのように知っていますか?xavier_initializer()はアクティベーションをどのように知っていますか?
初期化するための標準偏差は、使用される非直線性に依存します。右?どのようにtf.contrib.layers.xavier_initializer()は何が起こっているのか知っていますか?このWは、Xに何かをする
W = tf.get_variable("W", shape=[784, 256],
initializer=tf.contrib.layers.xavier_initializer())
と、結果は双曲線正接またはreluに渡されたかを持っている:
には、以下のケースを取ります。さて、イニシャライザはWの中にあります。テンソルの流れはどのように起動されますか?または、私が使用しようとしている活性化を知って、介入する必要がありますか?
tf.contrib.layers.xavier_initializerの引数を見て、そこにunifromまたは正規分布を選ぶことができます。しかし、それは解決しません、そうですか?