2016-06-22 8 views
2

テンソルフローで配信されているcamera iOS exampleを実行していて、かなり遅いです:inception5h.zipモデルを実行しているiPhone6の推論につき4~5秒。iOSで遅いTensorflow

私の理解では、これは軽量化されたGoogleNetモデルであり、iOSコードはフルモデルの約半分のサイズである最初の出力レイヤーを取得します。私は推論につき30ミリ秒かかる私のMacBook上のpythonインターフェイスで同じモデルを走らせた。

私はMacBookと比べてiOS上で同じモデルを動作させるのがなぜ約150倍遅いのだろうと思っています。私はいくつかの明白なことを間違っているようだ。

答えて

3

これはまだ十分に文書化されていませんが、最適化フラグをコンパイルスクリプトに渡して、ライブラリの高速版を取得する必要があります。ここでは例です:たくさんのあなたの速度を持参してください

tensorflow/contrib/makefile/compile_ios_tensorflow.sh "-Os"

、非公式に私は5S上GoogLeNetで秒以下を参照してください。

+0

build_all_ios.shには、次の行があります。#iOS TensorFlowライブラリをビルドします。 tensorflow/contrib/makefile/compile_ios_tensorflow.sh "-O3"あなたのフラグは "-Os"です、これはタイプミスですか? – kawingkelvin

関連する問題