Webサーバーと、それがどのように並行API呼び出しを処理するかを理解しようとしています。Webサーバー同時API呼び出しの処理
私はApacheベースのWebサーバーを持っていて、何人かの瞬間に1000人が同時に自分のWebページを開いたと言います。今、Webページには1つのAPIがあり、Webページがレンダリングするためには、これらの1000人の人すべてに対してAPIを実行する必要があります。 APIの完了には約10秒かかります。
私のWebサーバーは、クアッドコアシステムです。最大4つのプロセスを同時に実行できます。 Webサーバーが最初の10秒間に4人を処理した後、次の10秒間に次の4人が処理されるということですか?
しかし、これは私にとっては意味がありません。大きなサイトでは、多くの場合、同時に数千人のユーザーがアクセスすることがあります。また、応答を高速化するためにサーバーに数千のコアがあるとは思えません。
Googleで検索しようとしましたが、何時間も検索してもまだ混乱しています。
誰も親切にこれにいくつかの光を投げることができます。