2017-10-06 10 views
0

は以下のように定義tf.layers.dense機能:tf.layers.denseカーネル初期化子と正則

tf.layers.dense(
    inputs, 
    units, 
    activation=None, 
    use_bias=True, 
    kernel_initializer=None, 
    bias_initializer=tf.zeros_initializer(), 
    kernel_regularizer=None, 
    bias_regularizer=None, 
    activity_regularizer=None, 
    trainable=True, 
    name=None, 
    reuse=None 
) 

は、2つのオプションの引数kernel_initializerkernel_regularizerを持っています。私は実験したい私の2つの異なる正則化と初期化のテクニックを持っています。私はニューラルネットワーク全体を最初から実装することに熱心ではありません。誰かがこの2つの引数にカスタム関数を提供する例を提供できますか?

答えて

1

テンソルフローのinitializerregularizerの実装を確認するのが最善の方法です。例えば、variance_scaling_initializerイニシャライザは、このコードで定義されている:テンソルを返す

initializer(shape, dtype=dtype, partition_info=None) 

https://github.com/tensorflow/tensorflow/blob/r1.3/tensorflow/contrib/layers/python/layers/initializers.py#L62-L152

は、それは、次のシグネチャを持つinitializer関数のconsitutedれます。

正則子はここに定義されています:https://github.com/tensorflow/tensorflow/blob/r1.3/tensorflow/contrib/layers/python/layers/regularizers.py

関連する問題