0

https://arxiv.org/pdf/1609.08144.pdfGoogle's Neural Machine Translation System: Bridging the Gap between Human and Machine Translation」、2016なぜこの深い学習モデルがGPUよりもCPUの推論を高速化するのでしょうか?本論文では

そして12ページでは、表1に、彼らの2016年の神経の翻訳モデルの推論のための復号化時間が速くCPUにGPUのほぼ3倍であることが記載されています。それらのモデルは、深さ軸上のGPU間で高度に並列化されています。

誰にでも洞察力がありますか?

これは一般に、GPUでトレーニングするときにCPU上でニューラルネットワークのテストステップを実行する方が良いということですか?そして、これは多くのモデルではなく1 GPUでしか訓練されていないモデルにも当てはまりますか?

+0

私はそれをデータ科学の1つにほとんど掲載しましたが、それはパフォーマンスに関するものなので多少のことを躊躇しました。ありがとう。ああ、TensorFlow.orgは特に、フレームワーク(ここではスタックオーバーフローのためのCTRL + F)に関する質問のためにStackOverflowにリダイレクトします:https://www.tensorflow.org/about/ 。私はすでにそれを投稿して以来、質問はここにとどまると思う。 –

+0

私はデータサイエンスについても考えました。私は彼らが機械学習のサブサイトを持っていたかもしれないと半分期待していました。私はちょうどあなたの質問がより専門的なフォーラムの一つで深刻なCSciの種類によって見られる可能性が高いと思う。 –

+0

ええ、私はDeep Learningまたは少なくともMachine Learningについてのスタック交換サイトを見つけることも期待していましたが、うまくいきました。 –

答えて

1

彼らは88個のCPUコアを使用し、それをCPUとし、1個のGPUしか使用していません。したがって、理論上のピーク性能はそれほど変わらない。次に、データはGPUにロードされなければなりません。オーバーヘッドはCPU上では不要です。これら2つの要因の組み合わせにより、CPUプロセスがより良好に機能します。

関連する問題