1
現在、テンソルフローでCNNを構築しています。私はHeを使ってウェイト行列を初期化しています。しかし、私は自分のバイアス値をどのように初期化するべきかは不明です。私はReLUを各畳み込み層の間の活性化関数として使用しています。バイアス値を初期化するための標準的な方法はありますか?バイアスを初期化ニューラルネットワークの初期バイアス値
# Define approximate xavier weight initialization (with RelU correction described by He)
def xavier_over_two(shape):
std = np.sqrt(shape[0] * shape[1] * shape[2])
return tf.random_normal(shape, stddev=std)
def bias_init(shape):
return #???
ありがとう! –