私は、ニューロンネットワークについて考えていましたが(それはひどく始まります)、同じ時間(ここでは同時に意味する)で多くの原子操作を必要とするため、それらをシミュレートすることはできません。多くのものを計算する。超並列アプリケーション:非ベクトルIAアプリケーションではいくつかの8ビットコアは何ですか?
私たちのプロセッサは32ビットなので、はるかに大きなバンド(浮動小数点数や整数)の計算が可能ですので、周波数競争も終わり、メーカーはマルチコアプロセッサの出荷を開始します。アプリケーションでマルチスレッドを実装します。
私はコンピュータと脳の最も重要な違いについても考えていました。脳は多くのニューロンを使用しますが、コンピュータは高い精度で精度を使用します。そのため、現在のプロセッサモデルでリアルタイムAIをシミュレートするのは難しく、不可能です。
32ビット/ 64ビットのチップも多くのトランジスタを必要とし、AIはベクトル/浮動小数点精度を必要としないため、100または1000などの単一プロセッサ上にさらに多くの8ビットコアを搭載することをお勧めしますたとえば、IntelやAMDでは動作しませんので、プロセッサをどのように設計するのか分かりません。そのようなAIシミュレーションを計画するには、それほど余裕がないからです。
ウェブサーバーが実際に64ビットプロセッサ(文字列は8ビット使用)をどのように活用できるかわからないので、Xeonプロセッサはキャッシュサイズだけを考慮して違います。
ブランチキャッシングはどうですか?私はGPUが分岐コードを計算するために最適ではないと聞いています。つまり、条件チェック(if、switchなど)を含むすべてを意味します。 GPGPUのタイプは、その種のプログラミングパラダイムにも最適ですか?たぶん私は間違って言われましたが、大規模な並列グラフィックプロセッサは分岐時に悪いようです。 – jokoon
GPUが分岐時に悪いことは事実です。幸運なことに、ニューラルネットワークの場合、分岐は必要ありません。 –
AIが分岐を必要としない方法を説明できますか?ブランチングは、コンピューティングのあらゆる面で重要と思われます。 – jokoon