Tensorflow 1.0では、JITコンパイルとAOTコンパイルを含むXLAサポートが導入されました。 JITのコンパイルでは、Pythonのテストスクリプトが見つかりました。しかし、私はAOTコンパイルのためのPythonテストを発見していません。しかし、ソースツリー上で実行できるbazelテストがあります。 Tensorflowのリンクhttps://www.tensorflow.org/performance/xla/tfcompileは、テスト方法に関する情報を提供します。しかし、tfcompileはテンソルフローの分布内容には入りません。私はここで間違っているかもしれません。しかしTFがインストールされているディストリビューションディレクトリのどこにでもtfcompileが見えませんでした。 誰でも私が既存の流通コンテンツのAOTコンパイルをテストする方法を理解する助けになるか、AOTのものが配布に入るようにするためにコード内の何かを調整する必要がありますか? ありがとうございます。Tensorflow XLA AOTサポートのテンソルフロー配布方法
答えて
は、私はあなたがAOTについて、具体的求めているけど、私はあなたが最初にこのページ読んでお勧めします。https://www.tensorflow.org/performance/xla/
をそしてこれを読ん1:XLAは弊社のバイナリに含まれていないこと、特定のノートでhttps://www.tensorflow.org/performance/xla/jit
分布;あなたはから現時点でビルドする必要があります。 XLAサポートを有効にするには、./configure
を実行するときに「XLAを有効にする」を選択する必要があります。
これを済ませたら、Yaroslav Bulatovのアドバイスは正しいです。バイナリを自分でビルドするか、bazelでテストを実行することができます。
はい。ありがとう。私はこれらのリンクを先に行って、サポートが実験的であり、./configureの間に有効にできることを理解しました。以前は分からなかったことを申し訳なく思っています。 XLAサポートを可能にするテンソルフローを構築し、ホイールファイルを作成して作成しました。だから、配布によって、私はインストールされたTFを意味しました。そのTFはソースを構築することによって作成されたファイルです。 XLAを有効にしているにもかかわらず、インストールされた場所にはtfcompileのものは見当たりません。 XLAを有効にすることに加えて、このターゲットを明示的に構築する必要がありますか? bazelテスト以外にも、AOTテスト用のPythonテストはありますか? –
AFAIK tfcompileはスタンドアロンプログラムであり、pipパッケージには含まれていませんが、XLAがこれに含まれていればピップパッケージ( 'tf.compile(グラフ)'関数など)を使ってAOTを使うのが便利ですPyPIリリース。 –
- 1. テンソルフローのデモを配布
- 2. テンソルフロー/コンパイラ/ xla/tests:array_elementwise_ops_test_cpu_parallel ppc64leでのテストエラー
- 3. テンソルフローでxlaをC++ apiで使用する方法
- 4. XLAデモで表示されるTensorFlow Shellの起動方法
- 5. テンソルフローXLAでドットファイルが生成されない
- 6. TensorFlowで新しいXLAデバイスを登録
- 7. TensorFlow XLAが実験中の理由
- 8. Tensorflow 1.0.1でjemallocを有効にするとXLAテストが失敗する
- 9. Tensorflow。 GPU間でopsを配布する方法
- 10. XLAでTensorflowを実行中にエラーが発生する
- 11. Erlang Mnesiaの配布方法
- 12. ARKITアプリケーションの配布方法
- 13. テンソルフローGPUのインストール方法は?
- 14. テンソルボードを使って散布図を作る方法 - テンソルフロー
- 15. word2vecアルゴリズムをテンソルフローを使用してマルチコンピュータに配布できますか?
- 16. TensorFlow XLAはスパーステンソルを扱うのでしょうか?
- 17. TensorFlow XLAの例(libdevice.compute_35.10.bc)を実行しているNotFoundError
- 18. テンソルフローでのPoolallocatorメッセージの解釈方法
- 19. Tensorflow XLAはそれをより遅くしますか?
- 20. Javaベースのソフトウェアの配布方法は?
- 21. OSX cli/server appの配布方法
- 22. PythonとScipy:von misesの配布方法は?
- 23. Goアプリの配布方法は?
- 24. Imageフォルダの配布方法は?
- 25. Cocoa App:ベータ版の配布方法は?
- 26. 私有オフィスアドインの配布方法は?
- 27. 配布
- 28. エンタープライズiPAファイルを配布する方法
- 29. データベースにテキストデータを配布する方法
- 30. condaでライセンスパッケージを配布する方法
バイナリのターゲットは 'tensorflow/compiler/aot:tfcompile'です(' tensorflow/compiler/aot/tfcompile.bzl'のリファレンスを参照してください)。このバイナリを自分でビルドする必要があります。XLAは実験的なので、JIT/AOTのビットは公式リリースに含まれていません –
私は// tensorflow/tensorflow/tool/pip_package/BUILDのテンソルフロー/コンパイラ/ aot:tfcompileをbuild_pip_packageターゲット。 tfcompileのものもビルドされ、バイナリはbazel-outディレクトリにあります。しかし、このバイナリはホイールファイルには入っていません。私は行方不明の変更はありますか?これは私がホイールファイルに追加のものを追加してきた方法です。しかし、どういうわけか、tfcompileは動作していません。親切に私を助けてください。 –
これはおそらくデフォルトの設定です。実験的なので、Wheelファイルに物を入れるスクリプトは明示的に除外します –