ロジスティック回帰の単純勾配降下のための注釈付きコードです。正則化を導入するには、コストと勾配方程式を更新する必要があります。このコードでは、シータのパラメータ、Xは、クラス予測因子である、yはクラスラベルとアルファされているが学習率
である私は、このことができます願ってい:)
function [theta,J_store] = logistic_gradientDescent(theta, X, y,alpha,numIterations)
% Initialize some useful values
m = length(y); % number of training examples
n = size(X,2); %number of features
J_store = 0;
%J_store = zeros(numIterations,1);
for iter=1:numIterations
%predicts the class labels using the current weights (theta)
Z = X*theta;
h = sigmoid(Z);
%This is the normal cost function equation
J = (1/m).*sum(-y.*log(h) - (1-y).*log(1-h));
%J_store(iter) = J;
%This is the equation to obtain the given the current weights, without regularisation
grad = [(1/m) .* sum(repmat((h - y),1,n).*X)]';
theta = theta - alpha.*grad;
end
end
あなたはおそらく使用して方がいいでしょういくつかのプレ・ファブ・オプティマイザはあなた自身の実装よりも優れていますLBFGSと共役勾配は、バニラ勾配降下ではなく、LRモデルを正確に最適化するために最も広く使用されているアルゴリズムです。例えば、 [このツールボックス](http://www.di.ens.fr/~mschmidt/Software/minFunc.html)。 –
質問に正しくタグを付けると(つまり、matlabタグで)、他の人がこの質問を見つけやすくなり、回答の可能性を高めることができます。 – tr9sh
この質問は実際には統計スタック交換でより良い回答を得るかもしれません。 –