0
次のコードスニペットでは、8ビット量子化TF Liteモデルを作成し、QUANTIZED_UINT8
をFLOAT
に置き換えると、32ビットモデルが作成されます。 16ビット量子化モデルを作成するフラグはありますか?私はTF Liteのドキュメントを検索しましたが、可能なフラグのリストのドキュメントが見つかりませんでした。誰もこれを行う方法を知っていますか?TensorFlow Liteモデルを16ビットに量子化する方法
~/tensorflow/bazel-bin/tensorflow/contrib/lite/toco/toco \
--input_file=$(pwd)/model.pb \
--input_format=TENSORFLOW_GRAPHDEF \
--output_format=TFLITE \
--output_file=$(pwd)/model.lite --inference_type=QUANTIZED_UINT8 \
--input_type=QUANTIZED_UINT8 --input_arrays=conv2d_1_input \
--default_ranges_min=0.0 --default_ranges_max=1.0 \
--output_arrays=average_pooling2d_2/AvgPool --input_shapes=1024,32,32,2