私は現在、6つのパラメータに基づいて住宅の価格を予測するために、次のコードを実行しています: import pandas as pd
import tensorflow as tf
import numpy as np
housing = pd.read_csv('cal_housing_clean.csv')
X = housing.iloc[:,0:6]
y = housing.
私は自分の回帰コードの最後のブロックに次のコードを実行しています: steps = 50000
with tf.Session() as sess:
sess.run(init)
for i in range(steps):
sess.run(train, feed_dict={X_data:X_train,y_target:y_train})
私はTensorFlowとPythonの新機能です。私はデータセットを持っています。これはMNISTデータセット(28 * 28イメージ)と非常によく似ています。私はtensorflowとの基本的なニューラルネットワークを実装する方法でオンラインチュートリアルの多くを、以下、それらのほとんどは、単に使用していることが判明している: from tensorflow.examples.tutorial
relu activation関数に派生関数が含まれていないということはどのような影響を与えますか? How to implement the ReLU function in Numpyは、最大(0、行列ベクトル要素)としてreluを実装します。 勾配降下では、relu関数の派生を取っていませんか? 更新:Neural network backpropagation with RELU から こ