状況: Load Balancerには、マシンAとBの後ろに2つのマシンがあります。マシンAがロードバランサを介してクライアントから要求を受信し、コンシューマがマイクロサービスであるキューにメッセージを渡すとします。マイクロサービスは仕事をしてjsonメッセージを出します。このjsonメッセージは、クライアントに送り返されます。別のマシン・ノードからのhttp要求への応答js
現在の実装: マイクロサービスは、作成したjsonメッセージをマシンAとマイクロサービス間のキューに戻します。サーバーIDは、メッセージをパブリッシュするキューを知っているマイクロサービスにメッセージで渡されます。したがって、基本的には、マイクロサービスとロードバランサの背後にあるすべてのマシンの間にキューがあります。
問題:トラフィックが増加するにつれて、マシンの数が増えており、マイクロサービスとマシンの間のキューの数も頭痛になります。マシンAで受信したマシンBからの要求に応答する方法はありますか?私は文脈がどのように維持されるのか分からない。誰かがRedisを提案しましたが、可能でしょうか?
はいpub/subはRabbitMQです。文脈では、Nodejsに対応する応答オブジェクトがあります。したがって、基本的にサーバーBがサーバーAの要求にどのように応答できるか 非常に多くのマシン上の内部APIは面倒です。 –
あなたは@gmaliarを提案します –
あなたのニーズに応じて:) HTTPははるかに簡単に最初に... – gmaliar