GoogleはData Engineerテストのベータ版を公開しています。彼らはサンプルの質問を示しました。解決策を得るためにプロッパーの説明を得ることは可能ですか?Google Cloud Platform - バックアップアップロード
あなたの会社は毎日のデータベースバックアップをクラウドに移行しています。各バックアップは10 TBです。 Google Cloudへの1 Gbps接続があります。あなたはコストを最小限に抑えたいです。どのくらいの帯域幅が必要ですか?
GoogleはData Engineerテストのベータ版を公開しています。彼らはサンプルの質問を示しました。解決策を得るためにプロッパーの説明を得ることは可能ですか?Google Cloud Platform - バックアップアップロード
あなたの会社は毎日のデータベースバックアップをクラウドに移行しています。各バックアップは10 TBです。 Google Cloudへの1 Gbps接続があります。あなたはコストを最小限に抑えたいです。どのくらいの帯域幅が必要ですか?
あなたの答えはBrandonにありがとう、明らかに質問の答えは単位変換と除算だけです。
データのアップロード時間を計算するには、データ量を接続速度で除算します。データはバイト単位で測定され、速度はビットであることを考慮
10TB/1Gbpsの= 22.22hours
。その後、接続速度の変動のために10%を追加するのが一般的です。
24.44hours
答えは日以上である、あなたは12.22hoursのアップロード時間を持つために、2Gbpsのへの接続速度を向上させる必要があるだろうと思わせる理由。
私は、このテストに手を加えたり、標準的に「正しい」答えのいずれかの特別な知識を持っているが、私はいくつかの基本的な代数を知っていますか、それでは、これを刺してみましょうしないでください:
各バックアップは10件のテラバイトです。それらは毎日のバックアップです。つまり、1日に少なくとも1つのバックアップをアップロードする必要があります。 10テラバイト/日is 0.926 Gbps、これはすでに十分な帯域幅しか持っていないことを意味します。
もちろん、実際にはもっと帯域幅が必要です。動作するには1Gbpsの総計がありますが、おそらく他のものも使用しています。また、何らかの理由で私たちのアップロードの1つが失敗する可能性も考慮したいと思うでしょう。そして、私たちの毎日のアップロードが本当に余分な一日の後になることを本当に望んでいますか?また、1Gbps接続は、実際に約束された容量の92%以上を達成することができますか?