は以下のように定義tf.layers.dense機能:tf.layers.denseカーネル初期化子と正則
tf.layers.dense(
inputs,
units,
activation=None,
use_bias=True,
kernel_initializer=None,
bias_initializer=tf.zeros_initializer(),
kernel_regularizer=None,
bias_regularizer=None,
activity_regularizer=None,
trainable=True,
name=None,
reuse=None
)
は、2つのオプションの引数kernel_initializer
とkernel_regularizer
を持っています。私は実験したい私の2つの異なる正則化と初期化のテクニックを持っています。私はニューラルネットワーク全体を最初から実装することに熱心ではありません。誰かがこの2つの引数にカスタム関数を提供する例を提供できますか?