私はTensorflow用の新しいデバイスを実装しています。私はDeviceとDeviceContextの間の明確な説明をしたいと思います。私はthis questionを読んだが、私はもう少し情報が必要だと思う。Tensorflow DeviceとDeviceContextの比較
システムの各デバイスに1つのデバイスインスタンスがあり、そのデバイスインスタンスがその物理デバイスに関する情報を保持していますか?次に、DeviceContextは、このデバイスに関する実行時情報を維持する必要があります。
もう1つの質問では、GPUデバイスがストリームごとに1つのデバイスコンテキストを保持し、ストリームに特定のジョブ(コピーと実行)が指定されていると回答しています。特定のデバイスコンテキストにバインドされたカーネルオペレーションのように聞こえますが、もしそうなら、いつ/どこでそれが起こりますか?
実際の作業の大半はgpu_stream_util :: AssignStreams()で行われます。 –