私はネットワーキングの人ではないので、安全のためネットワーク専門用語を使用しません。私は適度にモダンなイーサネットカード(100Mbps?)を持ったマシンを持っており、このマシンから同様のネットワーク容量を持つ多くのマシン(50-500)にデータを送信しています。このために、私のプログラムは複数のTCPチャネルを使います。他に面白いTCPの最適化はありません。複数のTCPチャネルを単純に考えています。私は、これらのマシンにどれくらいのデータを送ることができるかの制限要因は何かを判断したいと思います。1台のマシンから多くのマシンにデータを送信すると、どのように輻輳要因を見つけることができますか?
私が考えることができるそのような要因の1つは、ホスト上の輻輳です。しかし、渋滞はどれくらいですか?輻輳を決定する要因は何ですか?私がここで作っている他の仮定や誤解?
編集:これは私がネットワークアーキテクチャについて知っているものです: ソースマシンは大学ネットワークの一部です。ファイアウォールが設置されていますが、この転送が行われるポートは開いています。私のデータが最終的な目的地にどのようなスイッチやルータを通過するかは完全にはわかりません。行き先と言えば、これらは地理的に異なる大学に広がる機械なので、大学のインフラストラクチャの下にあります。私は上記で提供した情報には何も具体的なものがないことを知っていますが、これは私が現在知っているすべてです。私のホスト(Linuxボックス)でもっと詳しい情報を得るために使用できるコマンドがありますか?ありがとう。
ネットワークアーキテクチャについて詳しく説明してください。すべてのノードが同じLAN上にあるスイッチドネットワークですか?そうでない場合、どのように接続されていますか?あなたの内部ネットワークのルータを経由して、X Mbpsに制限されたインターネットのアップリンクを介してなど – ldx
見ていただきありがとうございます、私は私の質問を編集しました。 – Ketan
bmonのような帯域幅メーターツールを使っていくつかの測定を行う方がよい。異なる時間に数回繰り返します。 – ldx