3
トレーニングを行わずにモデルの精度を判断しようとしていて、レイヤーをすべてtrainable = False
に設定しました。レイヤーが訓練可能でないときにケラスモデルをフィットすると、結果が一致しない
shuffle = False
の発電機でfit_generator
を実行すると、毎回一貫した結果が得られます。
shuffle = True
のジェネレータでfit_generator
を実行すると、結果は少し跳ね上がります。入力データが同じで、モデルがトレーニングではないとすれば、モデルの内部状態は変わらず、順序は問わず同じデータセットで同じであることが期待されます。
しかし、この順序依存性は、trainable = False
にもかかわらず、モデルの状態の種類が変化していることを意味します。これを引き起こしているモデル内で何が起こっていますか?
numpy.random.seed()を使用してシードを設定した後でも、これは再現可能ですか? – abhiieor
シードの設定を試していないのですが、入力データの順序が同じであることを保証しませんか?私の理解は、順序はここでは問題ではないはずですが、私は何かを明確に欠いています。 – jvans
私の提案は主にあなたの仮説をテストすることです。ニューラルネットは設計上ノイズが多いため、常に再現可能なケースが存在します。 – abhiieor