3
をfloat16するには?現在、量子化と8ビット整数への変換のためのグラフの最適化があります。「クオンタイズ」Tensorflowグラフ
DataLossError (see above for traceback): Invalid size in bundle entry: key model/conv5_1/biases; stored size 1536; expected size 768
[[Node: save/RestoreV2_16 = RestoreV2[dtypes=[DT_HALF], _device="/job:localhost/replica:0/task:0/cpu:0"](_recv_save/Const_0, save/RestoreV2_16/tensor_names, save/RestoreV2_16/shape_and_slices)]]
[[Node: save/RestoreV2_3/_39 = _Recv[client_terminated=false, recv_device="/job:localhost/replica:0/task:0/gpu:0", send_device="/job:localhost/replica:0/task:0/cpu:0", send_device_incarnation=1, tensor_name="edge_107_save/RestoreV2_3", tensor_type=DT_HALF, _device="/job:localhost/replica:0/task:0/gpu:0"]()]]
あなたは[quantize_graph](https://github.com/tensorflow/tensorflow/blob/master/tensorflow/tools/quantization/quantize_graph.py)に見たことがありますか?それは少し時代遅れのだが、ピートウォーデンは良い[量子上のポスト](https://petewarden.com/2016/05/03/how-to-quantize-neural-networks-with-tensorflow/)を持っています。 –
はい、私の知るところでは、そこにはfp16のための何もありません。 –
だから、明確にするために、既存の 'quantize_graph'のようなもののFP16ではなく、FP8のために何が欲しいですか?もしそうなら、私はGitHubのチケットを機能要求と共に提出することをお勧めします。 –