小さなBigtableクラスター(最低3ノード)をテストしています。 Googleコンソールでは、Write QPSレベルが10Kに近づくにつれて、CPU使用率が〜80%の推奨最大値に近づくことがわかります。Google Bigtableのパフォーマンス:QPS vs CPU使用率
QPSメトリックは、各ノードではなく、インスタンス全体のものですか?その場合、技術的にはQPSの負荷は30,000ガイダンスの1/3にすぎませんが、なぜCPUのしきい値に達するのですか?私はちょうど何か私のデータアップロードプログラム(Dataflow経由で行われている)でオフになっているかどうかを理解しようとしています。
なぜ私は30K Writes/secに近いものを観察することができないのか不思議ですが、これはデータフロー側の制限によるものだと私は思っています。 ..
上記のおかげで、いつものように役立ちました。他にも2つの観測があります。(1)このポストの提案に従って、部分的な行キーを使用してテーブルをいくつかの領域に分割しました[リンク](http://stackoverflow.com/questions/39169327/populating-data -in-google-cloud-bigtable-is-taking-long-time)です。これは、行を半分にアップロードする時間を削減するようです。 –
(2)不思議なことに、BigtableのスループットはConsole Chartの提案よりもはるかに高いようです。グラフには7Kの書き込み/秒以上のデータが表示されませんでしたが、8データフローの作業者(100m/12/60/3 =ノードあたり〜45K書き込み/秒)を使用して~12分で100mの行を書きました。おそらく、CPU使用率がその段階で最大に近づいた理由です。また、フラットな(データフローではない)1n-standard-8マシンを使って、〜2分で9mスキャン/書き込み/削除操作を実行したので、9m/2/60/3 =〜20k操作/秒です。再び、コンソールチャートは> 7k/secの操作を示していませんでした。 –
私は両方のテストの後に物理的に各行を横断しました - すべてがそこにあるように見えます)実際のパフォーマンスはコンソールチャートよりもはるかに優れています... –