1

私はこれらの時代にGANに非常に興味があります。ランダム入力ではないGAN

Iは、以下の構造を有するMNISTための1つの符号化: Generatorモデル 弁別モデルを ゲン+ディスモデルを

Generatorモデルをランダムな分布から画像のバッチを生成します。 Discrimatorはそれと実際の画像を訓練されています。 次に、DiscriminatorはGen + Disモデルでフリーズし、ジェネレータは訓練されています。 (凍ったDiscriminatorで発電機が良いかどうかを教えてください)

ここでは、発電機に無作為な分布を与えたくないのではないかと想像してください。 (例えば、アップスケーリングや描画から実画像を生成する場合)

何かを変更する必要はありますか? (より複雑なコンボモデルを除きます) binary_crossentropyを損失関数として使用し続けますか?

ありがとうございました!

答えて

1

実際には、初期分布zを生成するために、変分オートエンコーダー(VAE)を前面に置くことができます(paperを参照)。

このトピックに興味がある場合は、このcourseをKadenzeでお勧めします。

+0

お返事ありがとうございます! VAE + GANについては、まさに私が欲しいものです!ありがとう! したがって、私がよく理解していれば、ジェネレータのノイズの単純なデコーダの代わりに、私はそれをオートエンコーダに入れます。 しかし、binary_crossentropyを損失関数として保持できますか? 私はそれが収束するのが遅くなると思うが、私は実際に紙で使用される損失関数を理解していない。(式8) –

関連する問題