MNIST for LM Beginnersチュートリアルで私は間違いがあると信じています。私はこの部分が正確ではないと思う:MNIST for ML初心者チュートリアルミス
ランダムなデータの小さなバッチを使用することは、確率的訓練 - この場合、確率的勾配降下と呼ばれます。
確率的勾配降下法は、各トレーニング例(http://sebastianruder.com/optimizing-gradient-descent/index.html#gradientdescentvariants)のパラメータを更新するためのものであり、100のサイズのチュートリアルバッチで代わりにミニバッチ勾配降下であろう私は信じている、使用されています。
私は間違っている可能性がありますが、これを変更しないでください。
ニューラルネットワークトレーニングでは、SGDは通常、ミニバッチによる最適化を指します –