:ほとんどのトレーニングが平均値0と標準偏差1のデータにある場合、ディープ学習で浮動小数点数や数値精度エラーが発生しないのはなぜですか?質問に触発さ
Why do different methods for solving Xc=y in python give different solution when they should not?
行列を反転して[-1,1]
に値を制限し、原因のフローティングポイントに数値的な問題を持っているようだ、私は好奇心どのような今、なぜ深い学習がフロートに罹患していない場合、またはほとんどのトレーニングが平均値0と標準偏差1のデータにある場合は、数値精度誤差が発生します(データの大部分がその範囲に入るように前処理されていると推測します)。バッチ正規化の高い使用率)。なぜなら、深い学習は、多項式を非常に高度に上げることによって訓練をしないか、あるいは深い学習は通常うまくいくのですか? SGDに特別なものがあるのでしょうか、あるいは(人気の)活性化関数、relu、eluなどが数値的に不安定ではありません(高度多項式と比較して)?あるいは、GPUトレーニングが浮動小数点表現を一緒に避けているかもしれませんか?あるいは、なぜ深い学習訓練が数値的に安定しているのですか?