2017-03-10 15 views
3

Tensorflow 1.0では、JITコンパイルとAOTコンパイルを含むXLAサポートが導入されました。 JITのコンパイルでは、Pythonのテストスクリプトが見つかりました。しかし、私はAOTコンパイルのためのPythonテストを発見していません。しかし、ソースツリー上で実行できるbazelテストがあります。 Tensorflowのリンクhttps://www.tensorflow.org/performance/xla/tfcompileは、テスト方法に関する情報を提供します。しかし、tfcompileはテンソルフローの分布内容には入りません。私はここで間違っているかもしれません。しかしTFがインストールされているディストリビューションディレクトリのどこにでもtfcompileが見えませんでした。 誰でも私が既存の流通コンテンツのAOTコンパイルをテストする方法を理解する助けになるか、AOTのものが配布に入るようにするためにコード内の何かを調整する必要がありますか? ありがとうございます。Tensorflow XLA AOTサポートのテンソルフロー配布方法

+1

バイナリのターゲットは 'tensorflow/compiler/aot:tfcompile'です(' tensorflow/compiler/aot/tfcompile.bzl'のリファレンスを参照してください)。このバイナリを自分でビルドする必要があります。XLAは実験的なので、JIT/AOTのビットは公式リリースに含まれていません –

+0

私は// tensorflow/tensorflow/tool/pip_package/BUILDのテンソルフロー/コンパイラ/ aot:tfcompileをbuild_pip_packageターゲット。 tfcompileのものもビルドされ、バイナリはbazel-outディレクトリにあります。しかし、このバイナリはホイールファイルには入っていません。私は行方不明の変更はありますか?これは私がホイールファイルに追加のものを追加してきた方法です。しかし、どういうわけか、tfcompileは動作していません。親切に私を助けてください。 –

+0

これはおそらくデフォルトの設定です。実験的なので、Wheelファイルに物を入れるスクリプトは明示的に除外します –

答えて

0

は、私はあなたがAOTについて、具体的求めているけど、私はあなたが最初にこのページ読んでお勧めします。https://www.tensorflow.org/performance/xla/

をそしてこれを読ん1:XLAは弊社のバイナリに含まれていないこと、特定のノートでhttps://www.tensorflow.org/performance/xla/jit

分布;あなたから現時点でビルドする必要があります。 XLAサポートを有効にするには、./configureを実行するときに「XLAを有効にする」を選択する必要があります。

これを済ませたら、Yaroslav Bulatovのアドバイスは正しいです。バイナリを自分でビルドするか、bazelでテストを実行することができます。

+0

はい。ありがとう。私はこれらのリンクを先に行って、サポートが実験的であり、./configureの間に有効にできることを理解しました。以前は分からなかったことを申し訳なく思っています。 XLAサポートを可能にするテンソルフローを構築し、ホイールファイルを作成して作成しました。だから、配布によって、私はインストールされたTFを意味しました。そのTFはソースを構築することによって作成されたファイルです。 XLAを有効にしているにもかかわらず、インストールされた場所にはtfcompileのものは見当たりません。 XLAを有効にすることに加えて、このターゲットを明示的に構築する必要がありますか? bazelテスト以外にも、AOTテスト用のPythonテストはありますか? –

+0

AFAIK tfcompileはスタンドアロンプ​​ログラムであり、pipパッケージには含まれていませんが、XLAがこれに含まれていればピップパッケージ( 'tf.compile(グラフ)'関数など)を使ってAOTを使うのが便利ですPyPIリリース。 –

関連する問題