サンプルデータを使用してGoogle Speech APIをトレーニングして、アプリケーションでの認識を助けることは可能ですか?Google Speech APIの正しい認識結果
私が意味するのは、wit.aiが提供するようなアプローチであり、here(この例はnlp処理に適用されますが)と記載されています。基本的に、ユーザーがあなたのボットとやりとりする相互作用を予測できれば、より良い実行のためにトレーニングすることができます。たとえば、私はZurich
と言うとボットを理解できないようですが、それはSyria
またはSiberia
になりますが、私はすでにそれが不可能であることを知っています。だから、私が最初に使用される優先語のリストをアップロードしてから、一致するものが見つからない場合、標準認識やそれに類似したアプローチに置き換えれば、より良い結果が得られると思います。
これは可能かどうか、どんな考えですか?私はこれらのAPIがベータ段階にあり、変更されることは知っていますが、私はまだそれを試してみたいと思います。
私は現在行っていることのいくつかのコードサンプルをアップロードすることができますが、これはオーディオを送信してこれまでの結果を分析しています。
私はそれに取り組む時間がありませんが、私はこのプロジェクトに取り組む時間がありませんが、私があなたの答えが私を助けてくれたら、しかし、複数のオプションで見落とされている可能性があります、私は印象を持っていた1つだけがあまり分からない) – ThanksForAllTheFish