結果として得られる100,000行のセットにデータベースを照会する必要がある場合。そこで私はそのデータを処理する必要があります。これは、連続的なwebjobで、成功裏に、行うことができますか?その場合、キューはどのように管理されますか?私は現在、タイムトリガで連続webjobを使用しての問題を論じて、この質問Webjobsと大規模なデータベースクエリ
を持っています。 Webjobが再起動した場合、キューはダンプされています。ダンプされると、キューはそれ以上処理されません。クエリの行を制限するtake
が使用されている場合、次のpolleventはデータを処理しません。
これらのWebジョブでは多くのことが管理されており、大きなキューを管理するのは難しいことがあります。
私の質問:
大量のデータを処理するのに適していますか?
もしそうなら、彼らは継続的にスケジュールされていて、なぜそうであるべきですか?
ないのはなぜあなたが/いない-票を投票する方法を人々に伝えるコメントを投稿していることを確認、トリガ仕事を起動します。これはStackOverflowの仕組みではありません。 –
@DavidMakogonあなたはこれに対する答えを知っていますか? –
[this one](http://stackoverflow.com/questions/32597003/azure-webjobs-where-hosted-are-they-safe-as-long-running-processes)の複製のように見えます。 –