2つの画像の間にl2_lossを計算しようとしていますが、gradientを取得しています。 with tf.name_scope("train"):
X = tf.placeholder(tf.float32, [1, None, None, None], name='X')
y = tf.placeholder(tf.float32, [1, None, None, No
こんにちは、回帰アルゴリズムについて学びたいと思っていましたが、勾配降下を伴う線形回帰を実装し、収束を決定するために残余平方和を使用しようとしました。 繰り返しのある時点では、残余平方和の評価がわかりますが、この問題を解決する方法はわかりません。私は何か間違っている? import math
import numpy as num
def get_regression_predictions
ちょっと、私は線形仮説のためにこのアルゴリズムを理解しようとしています。私の実装が正しいかどうかわかりません。私はそれが正しくないと思うが、何が欠けているのか分からない。 theta0 = 1
theta1 = 1
alpha = 0.01
for i in range(0,le*10):
for j in range(0,le):
temp0 = theta0 - a
これはTensorflow: How to get gradients per instance in a batch?の可能な複製です。私はとにかくそれに満足している答えがなかったので、私はそれを尋ねます、そして、ここの目標は少し異なります。 私は私が私のGPUに収まることができる非常に大きなネットワークを持っていますが、私は養うことができ、最大バッチサイズはそれよりも大きい32何がGPUがメモ