2017-08-04 16 views
1

私は、カスタム関数コードを共有しているC++でOpを、TensorFlowでCUDAを作成しています。通常、CPUとCUDA実装間のコード共有では、CUDA用にコンパイルする場合、関数シグニチャに__device__指定子を挿入するマクロを定義します。 TensorFlowでこのようにコードを共有するための組み込みの方法はありますか?TensorFlow CPUとCUDAコードの共有

CPUとGPUで実行できるユーティリティ関数(通常はインライン展開)をどのように定義しますか?

答えて

0

TensorFlowの次のマクロは、私が記述したことを行うことになります。

namespace tensorflow{ 
    EIGEN_DEVICE_FUNC EIGEN_STRONG_INLINE 
    void foo() { 
     // 
    } 
} 
関連する問題