2017-03-20 2 views
0

まず、私の悪い英語の謝罪。複数のウェブサイトで同時にAPI呼び出しが行われる

私は物事を明確にしたい。

複数のウェブサイトのユーザーがいる場合(1000としましょう)、APIのエンドポイントにアクセスしようとすると(同時に誰もが登録エンドポイントにアクセスしているとします)、まったく同じ時刻ではない場合、ナノ秒)。何が起こるか?誰もが同じ応答時間を得ますか?またはそれにアクセスする最初の人は、2番目の人より速くそれを得るでしょうか?

私の知識に基づいて(ええと私はばかです)、私はAPIがキューでそれを処理すると思います。だから、もしあなたが1000番目のユーザーであれば、はるかに長い時間で応答を受け取ります。これが本当ならば。遅延を減らす方法はありますか?

ご説明いただきありがとうございます:)

+0

これのためにサーバーの設定を調整する必要があります。あなたがあなたの 'nginx'と' php-fpm'を調整する必要があるよりも、 'PHP'と' Nginx'を使っているとしましょう。例:バックグラウンドワーカープロセスとphp-fpmプロセスなどを増やしてください。レスポンス時間が短くなります。 –

+0

私は参照してください。私はこれらの推奨事項について研究します!どうもありがとうございます。私は実際に1つのデータベースに接続する10台のサーバーを作成することを考えています。もう一方がビジーであれば、もう一方のものにリダイレクトされます。私はそんな初心者です:) – Emman

+0

リクエストを処理するために複数のサーバーに行きたい場合。サーバ上で 'load-balancing'というコンセプトを実行する方が良いでしょう。 –

答えて

0

あなたは正しいですか。同時にAPIにアクセスしているユーザーが1000人いる場合、そのうちのいくつかが待機する可能性が最も高いです。

受け付ける同時要求の数を微調整できます。私はあなたがnginxまたはApacheを使用していると仮定します。たとえば、nginxのワーカープロセスとワーカープロセスを可能な限り増やす必要がありますが、サーバがそれらを処理できることを確認してください。

さらに多くのサーバーを使用する場合は、現在利用可能なサーバーからの要求に対応するロードバランサを使用するか、そのいずれかからランダムに使用できます。

関連する問題