-1
ニューラルネットワークのマルチレイヤパーセプトロンでは、確率的勾配(SGD)と勾配降下(GD)の主な違いは、トレーニング中。つまり、SGDは順方向パスを実行するために1つのサンプルを繰り返し選択し、続いて順方向パスでサンプル全体が計算された後にのみバックプロパゲーションが開始されるGDとは反対に、逆方向移動を行って重みを調整します。勾配降下によるバックプロパゲーションは、各フォワードパス後のエラーを表します
私の質問は以下のとおりです。
- はグラデーションディセント(あるいはミニバッチグラデーション降下)が選ばれたアプローチである場合には、どのように我々は通過し、単一の前方からの誤差を表すのですか?私のネットワークが単一の出力ニューロンしか持たないと仮定すると、エラーは各サンプルの個々のエラーをすべて平均化するか、またはそれらを合計することによって表されますか?
- MLPClassifier scikitで、どのようにこのようなエラーが蓄積されているか知っていますか?平均化または合計?
ありがとうございました。