1
私は今スタンフォードcs231nコースを学習しています。 softmax_loss関数を完了すると、フルベクトル化された型、特にdwという用語を扱うのは簡単ではないことがわかりました。以下は私のコードです。誰かがコードを最適化できますか?感謝します。softmax_loss関数:ループを行列演算に変換
def softmax_loss_vectorized(W, X, y, reg):
loss = 0.0
dW = np.zeros_like(W)
num_train = X.shape[0]
num_classes = W.shape[1]
scores = X.dot(W)
scores -= np.max(scores, axis = 1)[:, np.newaxis]
exp_scores = np.exp(scores)
sum_exp_scores = np.sum(exp_scores, axis = 1)
correct_class_score = scores[range(num_train), y]
loss = np.sum(np.log(sum_exp_scores)) - np.sum(correct_class_score)
exp_scores = exp_scores/sum_exp_scores[:,np.newaxis]
# **maybe here can be rewroten into matrix operations**
for i in xrange(num_train):
dW += exp_scores[i] * X[i][:,np.newaxis]
dW[:, y[i]] -= X[i]
loss /= num_train
loss += 0.5 * reg * np.sum(W*W)
dW /= num_train
dW += reg * W
return loss, dW
ご回答いただきありがとうございます。私はまだあなたの提案ごとにそれを学んでいます。 – luoshao23