これまでのすべての回答は、この問題のソフトウェア面に焦点を当てています。私は、OPがこのような高いCPU使用率を持つことがサーバーのハードウェアの信頼性に影響を与えるかどうかを知ることに興味があると思う。あるいは、少なくとも私は、私が物事のこの側面のかなり正確な視点を与えることができると感じています。
サーバの多くのコンポーネントの信頼性は、温度に大きく依存します。この点で、低負荷のサーバーはおそらく低速で実行され、障害の可能性は低くなります。しかし、CPUが冷却システムの最大許容温度(PC上では60ºC)に達すると、冷却システムが60ºCを超えることを避けるために冷却システムが温度を調整するため、高負荷でも信頼性はそれほど低下しません。冷却システムがファンをより早く動かし、ファンの故障の可能性を高めることは事実です。このような高負荷では、熱がエンクロージャから効果的に取り出されないと、サーバ全体が高温になり、他のコンポーネントに影響を及ぼします。これに大きな影響を与える部品は電解コンデンサですが、他の部品も影響を受けます。
一般に、はい、どのマシンでも実現可能性は、そのマシンのオーバーサイズまたは安全率に大きく比例します。電子システムの信頼性を計算する正式な方法はたくさんありますが、最もよく知られているのがMIL-HDBK-217F信頼性ハンドブックですが、他にも多くのものがあります(Telcordiaなど)。 Reliability engineeringは、複雑さが深く、奥行きがあり、魔法のビットがある対象です。
私は、このトピックに関する少しの洞察を与えることができたと思います。
これはなぜ閉鎖されているのですか?これはプログラミングの質問ではないようですが、***はプログラミング上の疑問です*** - 分散プログラムがタスクに対応しているかどうかを判断する方法です。 – sharptooth
アプリと負荷に関する多くの情報なしで言うことはできません。応答時間の要件はありますか?負荷は非常に予測可能ですか?サーバーは常に有用な仕事をしていますか、あるいは何らかのCPUが高頻度のポーリングを使用していますか? –
いいえ、それはアプリケーション用のハードウェアのプロビジョニングです。 – bmargulies