-3
ハードウェアがトレーニングデータ全体をサポートできない大規模なトレーニングデータでマシン学習モデルをトレーニングするアプローチがあるかどうかは疑問です。ハードウェア制約付きマシン学習モデルトレーニング
ハードウェアがトレーニングデータ全体をサポートできない大規模なトレーニングデータでマシン学習モデルをトレーニングするアプローチがあるかどうかは疑問です。ハードウェア制約付きマシン学習モデルトレーニング
これは増分学習ならびに確率的勾配降下(およびそのミニバッチ一般化)のような技術のexistanceのための重要な理由の一つです。一般に、ハードウェア(GPUなど)に適合しなければならないのは、トレーニングデータの小さなバッチを解析するのに十分な容量を備えたモデルそのものだけです。特に、すべての最新のニューラルネットは、そのような方法で訓練されます(データがモデルを介してバッチで送信される場合、データセット全体をメモリに入れる必要はありません)。
この質問は、スタックオーバーフローのために*あまりにも幅があります。 –
これはあなたが見ているデータの種類に依存する非常に広い質問です。私が最初に見るのは、データを繰り返し処理できるモデルであり、メモリ内のトレーニングセット全体を必要としません。あなたが問題に遭遇したときにそのようなことを試して、質問をすることが最善のことです。 – danielunderwood