0

私は、再評価のために隠れマルコフモデルを使用してNのサンプル文を使ってテキストシステムに音声を構築しています。ニューラルネットワークの文脈では、私はエポックの概念が完全なトレーニングサイクルを指していることを理解しています。私はこれが "同じデータに同じデータを与え、毎回違う重みと偏りを持つネットワークを更新する"ことを意味していると仮定します。 - 私が間違っていれば私を修正してください。「エポック」はHMMとニューラルネットワークに関して異なる意味を持ちますか?

同じ文章からHMMを再見積もる(つまりトレーニングする)ときに同じロジックが機能しますか?言い換えれば、もしN文があれば、入力サンプルをそれぞれ10回繰り返して10 * N個のサンプルを生成することができます。これは、HMMでエポックを実行していることを意味しますか?さらに、これは実際にはより良い結果を得るのに役立ちますか?

カウントが特定するための加速度計によって 生成されるデバイス固有の数値量を表す:this紙から

、Iは、隠れマルコフモデルのコンテキスト内でエポック印象は、時間の単位を指し得ます時間単位(エポック)(例えば、1〜60 秒)。

時間の単位でない場合は、少なくともエポックの音が違います。最後に、私は知っているしたいと思います:

  • のHMMの文脈でエポックは何ですか?
  • ニューラルネットワークの エポックとはどのように違いますか?
  • トレーニングサイクルとしてエポックの定義を考慮すると、複数のエポックは のHMMの再推定を向上させるのでしょうか?

答えて

1

HMMのコンテキストではどのようなエポックですか?

ニューラルネットワークと同じように、データセット全体を処理します。

ニューラルネットワークではどのようにエポックと異なっていますか?

「エポック」という用語がHMMにあまり広く使われていない点を除き、違いはありません。人々はそれを「反復」と呼んでいます。

この論文から、私は隠れマルコフモデルのコンテキストでエポック印象を受ける本論文では、「エポック」が全てのHMMのコンテキストに関連していない時間

の単位を指し、それはありますその紙に特有の別個のアイデアであっても、紙からの用語の使用を一般化すべきではありません。

トレーニングサイクルとしてのエポックの定義を考慮すると、複数のエポックがHMMの再推定を改善するでしょうか?

複数のエポックがニューラルネットワークとHMMのどちらの再推定も改善しないということはありません。各エポックは特定のポイントまで精度を向上させ、オーバートレーニングが発生し、検証エラーが増加し始め、トレーニングエラーはゼロになります。通常、モデルのアーキテクチャに応じて最適な回数の繰り返しがあります。 HMMモデルは通常、パラメータが少なく、過度の訓練を受けにくいので、特別なエポックはそれほど有害ではありません。それでも、最適に実行するために必要なエポックがいくつかあります。

音声認識では、通常、Baum-Welchアルゴリズムを6-7回反復します。エポックが少ないほど正確なモデルが得られず、より多くのエポックがオーバートレーニングにつながる可能性があります。

関連する問題