これは、テンソルフローを使用したバッチ勾配降下の実装です。 このコードを実行しているとき、MSEは同じままです。 import tensorflow as tf
from sklearn.preprocessing import StandardScaler
import numpy as np
from sklearn.datasets import fetch_california_ho
私は複数の損失があり、ジェネレータを使用してネットワークにデータを作成して供給しています。 私はデータの構造をチェックしました。一般的には見栄えがよく、時間の大半が予想どおりに訓練されていますが、ほとんどの場合ランダムなエポックでほぼ毎回訓練の損失が突然飛びます私はそれは私が、データが一般的に大丈夫です伝えることができるものから、しかし、データかもしれないと思った # End of epoch 3
グラデーションディセントアルゴリズムは、最小値に向かっていくつかのステップを行います。私の質問は、sess.runを呼び出すたびに実行されるステップの数です。例で詳しく説明します: 私のネットワークでは、勾配降下アルゴリズム(tf.train.AdamOptimizer)を使用しています。私はこのようなループを持っています: for epoch in range(100):
sess.r