0

私は3つの隠れた層の神経網を持っています(私は合計5つの層を持っています)。 整流線形ユニットを各隠れ層で使用したいが、最外層にはSoftmaxをロジットに適用したい。私はDNNClassifierを使いたいです。出力層でsoftmax活性化機能を使用する方法はありますが、TensorFlowの中間層ではrelusを使用しますか?

activation_fn:各レイヤーに適用されるアクティベーション機能を、私は、パラメータactivation_fnの値を設定するために、彼らが言うTensorFlowのofficial documentationを読みました。 Noneの場合、tf.nn.reluを使用します。

私はいつも自分のモデルを書いて、アクティベーション機能の任意の組み合わせを使用することができます。しかし、DNNClassifierがより具体的なので、私はそれに訴えたいと思います。これまでのところ、私は持っています:

classifier = tf.contrib.learn.DNNClassifier(
    feature_columns=features_columns, 
    hidden_units=[10,20,10], 
    n_classes=3 
    # , activation_fn:::: I want something like below 
    # activation_fn = [relu,relu,relu,softmax] 
) 

答えて

1

申し訳ありませんが、これは1つのDNNClassifierを使用して可能です。 例に示すように、activation_fnを入力することができます。

各層にアクティベーション機能が適用されています。 Noneの場合、tf.nn.reluを使用します。

ではなく、層ごとに別々の1。問題を解決するには、この分類子をtanh actication関数を持つ別のレイヤーにチェーンする必要があります。

+0

次に、クラシファイアを別のレイヤにチェーンするにはどうすればよいですか?これは別の分類子に連鎖するのと同じではないでしょうか?その後、どのようにエラーを逆伝播させますか? –

関連する問題