私は、再評価のために隠れマルコフモデルを使用してN
のサンプル文を使ってテキストシステムに音声を構築しています。ニューラルネットワークの文脈では、私はエポックの概念が完全なトレーニングサイクルを指していることを理解しています。私はこれが "同じデータに同じデータを与え、毎回違う重みと偏りを持つネットワークを更新する"ことを意味していると仮定します。 - 私が間違っていれば私を修正してください。「エポック」はHMMとニューラルネットワークに関して異なる意味を持ちますか?
同じ文章からHMMを再見積もる(つまりトレーニングする)ときに同じロジックが機能しますか?言い換えれば、もしN文があれば、入力サンプルをそれぞれ10回繰り返して10 * N
個のサンプルを生成することができます。これは、HMMでエポックを実行していることを意味しますか?さらに、これは実際にはより良い結果を得るのに役立ちますか?
カウントが特定するための加速度計によって 生成されるデバイス固有の数値量を表す:this紙から
、Iは、隠れマルコフモデルのコンテキスト内でエポック印象は、時間の単位を指し得ます時間単位(エポック)(例えば、1〜60 秒)。
時間の単位でない場合は、少なくともエポックの音が違います。最後に、私は知っているしたいと思います:
- のHMMの文脈でエポックは何ですか?
- ニューラルネットワークの エポックとはどのように違いますか?
- トレーニングサイクルとしてエポックの定義を考慮すると、複数のエポックは のHMMの再推定を向上させるのでしょうか?