API documentationに「整流線形を計算する」と書かれています。"relu"はtf.nn.reluで何を表していますか?
それはRe(ctified)L(inear)...それではUは何ですか?
API documentationに「整流線形を計算する」と書かれています。"relu"はtf.nn.reluで何を表していますか?
それはRe(ctified)L(inear)...それではUは何ですか?
のRe(ctified)L(inear)(U)NIT
通常ニューラルネットワーク内の層は、いくつかの入力を有している、ベクターを言う、そしてベクターに即ち再び得、重み行列により乗算すること。
結果の各値(通常はfloat)は出力と見なされます。しかし、最近のニューラルネットワークのほとんどの層は非線形性を伴うため、これらの出力値に複雑さを加えるアドオン関数があります。長い間、これはシグモイドとタンです。
最近では、入力が負の場合は0、その入力が0または正の場合は入力そのものになる関数を使用します。この特定のアドオン機能(またはより良い「活性化機能」)は、reluと呼ばれます。
Uはユニットを表します。 – lnman