2017-10-07 13 views
0

This TensorFlowガイドは、ニューラルネットワークの重みと活性化の8ビット表現についていくつかの洞察を与えています。 float32の最小値をint8で0に、最大値を255にマッピングすることで、float32のmin-maxから8bitフォーマットへの範囲をマップします。これは、加算アイデンティティ(0)がゼロ以外の値にマッピングされ、 1)は、int8表現では1以外の値にマップされます。私の質問は、算術が新しい表現にどのように行われるか、これらのアイデンティティを失う後Tensorflowではどのように8ビット演算が行われますか?

  1. ですか?追加/サブの場合は、適切なスケーリングとオフセットの後に約float32の数値を取り戻すことができます。

  2. int8形式の乗算結果をネイティブfloat32形式に変換するにはどうすればよいですか?

答えて

0

量子化プロセスの一部の詳細はこちらを実際にあります。 http://www.oreilly.com/data/free/building-mobile-applications-with-tensorflow.csp

我々はあまりにも早くtensorflow.orgのドキュメントを更新することがあります。 #2に具体的に答えるには、浮動小数点に変換するために使用できる32ビットの累積結果の新しい最小/最大の浮動小数点範囲があります。

関連する問題