1
私は、カスタム関数コードを共有しているC++でOpを、TensorFlowでCUDAを作成しています。通常、CPUとCUDA実装間のコード共有では、CUDA用にコンパイルする場合、関数シグニチャに__device__
指定子を挿入するマクロを定義します。 TensorFlowでこのようにコードを共有するための組み込みの方法はありますか?TensorFlow CPUとCUDAコードの共有
CPUとGPUで実行できるユーティリティ関数(通常はインライン展開)をどのように定義しますか?