1
decay_rate = 0.99 # decay factor for RMSProp leaky sum of grad^2
RMSPropオプティマイザの "漏れやすい"合計について説明しています。これまで私はこの特定の行がAndrej KarpathyのDeep Reinforcement Learning: Pong from Pixelsのcopy-pasta'dであり、RMSPropがunpublished optimizer proposed by Hinton in one of his Coursera Classesであることを明らかにすることができました。 link 2からRMSPropの数学を見てみると、これがどのように "漏れている"かを理解するのは難しいです。RMSPropが「漏れ」と考えられるのはなぜですか?
RMSPropがこのように記述されている理由は誰にも分かりますか?