This TensorFlowガイドは、ニューラルネットワークの重みと活性化の8ビット表現についていくつかの洞察を与えています。 float32の最小値をint8で0に、最大値を255にマッピングすることで、float32のmin-maxから8bitフォーマットへの範囲をマップします。これは、加算アイデンティティ(0)がゼロ以外の値にマッピングされ、 1)は、int8表現では1以外の値にマップされます。私の質問は、算術が新しい表現にどのように行われるか、これらのアイデンティティを失う後Tensorflowではどのように8ビット演算が行われますか?
ですか?追加/サブの場合は、適切なスケーリングとオフセットの後に約float32の数値を取り戻すことができます。
int8形式の乗算結果をネイティブfloat32形式に変換するにはどうすればよいですか?