を収束していない、私はtensorflowを使用して使用してコスト関数を定義しましたTensorflow勾配は1つがMNISTデータセットでこれを実現するために、コスト関数 <a href="https://i.stack.imgur.com/ALWYG.gif" rel="nofollow noreferrer"><img src="https://i.stack.imgur.com/ALWYG.gif" alt="enter image description here"></a></p> <p>で通常のオートエンコーダを使用して、収縮オートエンコーダを構築するため
def cost(X, X_prime):
grad = tf.gradients(ys=X_prime, xs=X)
cost = tf.reduce_mean(tf.square(X_prime - X)) + tf.reduce_mean(tf.square(grad))
return cost
とし、バックプロパゲーションにはAdamOptimizerを使用しました。しかし、コストは0.067を下回らず、これは特有のものです。私のコスト関数の実装は間違っていますか?
編集: tf.gradients
にdocumentationを読んだ後、上記の実装ではなく を計算しているだろう。ですから、私の質問は、テンソルフローでどのように微分コンポーネントを賢明にするのですか?