一般的な線形代数では、乗算の一般的な演算を最適化し、入力にダミーの定数ディメンションを追加し、全体を単一の乗算(Wx + b => W'x'
)にします。Tensorflow最適化乗算した後に加算
はTensorflowでこれを行うにどんな利点があるのか、それは、スピードを向上させるメモリを減らす最適化ではありません何について、あなたは話しているとにかく(例えばtf.matmul(...) + b
対tf.matmul(...)
)
一般的な線形代数では、乗算の一般的な演算を最適化し、入力にダミーの定数ディメンションを追加し、全体を単一の乗算(Wx + b => W'x'
)にします。Tensorflow最適化乗算した後に加算
はTensorflowでこれを行うにどんな利点があるのか、それは、スピードを向上させるメモリを減らす最適化ではありません何について、あなたは話しているとにかく(例えばtf.matmul(...) + b
対tf.matmul(...)
)
ことを最適化します。これは、数学的表現を短縮する単なる方法です。
b
の同じサイズの列を使用して行列を追加b
ベクトルを持つのメモリが低下することがありません。n
要素を追加する場合は、として計算されるn
要素を追加するだけでベクトルを追加すると、n
要素はb_i
となります。TFでこれを行う利点(速度/メモリの面で)はありません。また、TFはそれを単独で最適化しません。
ここで何が起こっているのかを読んで理解することが容易であれば、そのように自由に書き込むことができます。
これはスピードを上げたりメモリを減らしたりしないと主張する理由を説明できますか?私はいつもそう思った。 – SRobertJames
私はまた何が改善されるべきなのか、あなたの正当性を聞いて興味があります。私は答えに私の正当な理由を加えた –
最適化に不要な乗算を追加していますか? – user1735003